ChatGPT w ciągu kilku lat z ciekawostki technologicznej stał się codziennym narzędziem pracy milionów ludzi. Pisze e-maile, streszcza dokumenty, tłumaczy, generuje pomysły, odpowiada na pytania. Nie dziwi więc, że coraz więcej pracowników biurowych sięga po niego bez zastanowienia, tak jak po wyszukiwarkę czy kalkulator.
Ale czy to zawsze bezpieczne? I czy w ogóle legalne?
-
Krótka odpowiedź brzmi: tak, ChatGPT jest w Polsce legalnym narzędziem pracy, ale pod warunkiem, że wiemy, czego nie robić.
Pułapki w używaniu AI w pracy są realne, a konsekwencje mogą być poważne: od naruszenia przepisów o ochronie danych, przez problemy z własnością intelektualną, aż po dyscyplinarne zwolnienie z pracy. Ten artykuł jest zatem dla każdego, kto używa AI albo chce jej używać w codziennej pracy i chce to robić bezpiecznie.
Spis treści
Czym właściwie jest ChatGPT i jak działa?
Zanim przejdziemy do przepisów, warto zrozumieć, z czym mamy do czynienia. ChatGPT to tak zwany duży model językowy. Mówiąc prościej: program wytrenowany na ogromnych ilościach tekstu, który na podstawie zadanych pytań generuje odpowiedzi, spójne, płynne i często bardzo pomocne.
Co ważne, ChatGPT przewiduje, jakie słowo powinno pojawić się po poprzednim. Dlatego potrafi generować odpowiedzi, które brzmią pewnie i profesjonalnie, a mimo to są zwyczajnie błędne. To zjawisko nazywa się halucynacjami AI i jest jednym z głównych powodów, dla których warto podchodzić do odpowiedzi czatu z rezerwą. Fundamentalna zasada pracy z AI jest więc jedna: zawsze weryfikuj fakty, liczby i cytaty.
Jakie przepisy regulują AI w pracy?
Od 2024 roku w Unii Europejskiej obowiązuje AI Act. Pierwsze na świecie kompleksowe prawo dotyczące sztucznej inteligencji jest wdrażane etapami, a część obowiązków dla przedsiębiorstw wchodzi w życie właśnie w 2026 roku. ChatGPT jest klasyfikowany jako narzędzie niskiego ryzyka. To dobra wiadomość: pracownik korzystający z niego na co dzień ma tu stosunkowo dużą swobodę działania.
Wymagania rosną, gdy AI jest używana w procesach wysokiego ryzyka, na przykład do wspomagania decyzji HR, rekrutacji czy oceny pracowników. W takich przypadkach przedsiębiorstwo musi prowadzić specjalne procedury. AI Act to jednak tylko część obrazu, ponieważ znacznie starszą regulacją, ale wciąż niezwykle istotną, jest RODO, z którym najłatwiej nieświadomie wejść w konflikt.
RODO i ChatGPT
RODO chroni dane osobowe, czyli wszelkie informacje pozwalające zidentyfikować konkretną osobę. Chroni też kombinacje danych, które w połączeniu tworzą profil konkretnej osoby. ChatGPT w darmowej wersji działa poza standardami wymaganymi przez RODO. Dane wpisane do czatu mogą być wykorzystywane do trenowania modelu. OpenAI przetwarza je na serwerach w USA, poza Europejskim Obszarem Gospodarczym, a to bez odpowiednich umów jest samo w sobie problematyczne prawnie.
Zatem wklejenie do okna ChatGPT fragmentu umowy z imieniem i nazwiskiem klienta lub danych pracownika, lub historii choroby pacjenta z numerem PESEL może oznaczać naruszenie RODO. Odpowiedzialność dotyczy przy tym nie tylko firmy, ale też pracownika, który wprowadził takie dane do ChatGPT. Nie należy zatem wklejać żadnych danych osobowych do ChatGPT. Jeśli praca wymaga operowania danymi, należy je anonimizować. Na przykład Jana Kowalskiego z numerem PESEL należy oznaczyć „osoba XYZ”.
Tajemnica przedsiębiorstwa
Obok danych osobowych jest jeszcze jedna kategoria informacji, z którą trzeba być ostrożnym: tajemnica przedsiębiorstwa. Strategia firmy, dane finansowe, oferty dla klientów, wewnętrzne raporty, informacje o planowanych zwolnieniach czy przejęciach, to wszystko może być objęte klauzulą poufności. Wklejenie zatem takich danych do publicznego narzędzia AI może oznaczać naruszenie obowiązków pracowniczych, niezależnie od intencji pracownika.
Czy grozi za to zwolnienie? To zależy od okoliczności. Polskie prawo pracy (art. 52 Kodeksu pracy) pozwala na natychmiastowe rozwiązanie umowy z pracownikiem bez wypowiedzenia umowy o pracę tylko w przypadku ciężkiego naruszenia obowiązków pracowniczych. Polecam przyjąć zasadę, że jeśli masz jakiekolwiek wątpliwości, czy dane przeznaczone do wklejenia są poufne, zostaw je poufnymi i nie wklejaj do żadnego czatu.
Własność wygenerowanego tekstu
Polskie prawo autorskie chroni utwory będące wynikiem pracy twórczej człowieka. Tekst wygenerowany przez ChatGPT nie jest chroniony przez prawo autorskie. Oznacza to brak wyłączności do wygenerowanego tekstu, czyli każdy może go skopiować i nie potrzebuje do tego zgody. Regulamin OpenAI pozwala na komercyjne wykorzystanie outputów, czyli wygenerowanych przez czat tekstów. Można więc ich użyć w pracy, opublikować, sprzedać.
Istnieje jednak inne ryzyko: ChatGPT mógł wygenerować tekst podobny do istniejących wcześniej treści, na których był trenowany. Nigdy nie ma gwarancji, że wygenerowany tekst jest oryginalny, że nie narusza czyichś praw autorskich. Używanie treści wygenerowanych przez ChatGPT w pracy jest legalne, ale jeśli ktoś chce powołać się na te treści jako ich autor, musi wnieść do treści swój autorski, realny, twórczy wkład.
5 Zasad Bezpiecznego Użytkownika ChatGPT:
1. Dane osobowe zostają poza czatem. Imiona, nazwiska, numery PESEL, adresy, dane klientów nie trafiają do publicznych narzędzi AI. Ewentualne dane zanonimizujmy przed wklejeniem do czatu.
2. Nienaruszalność tajemnicy przedsiębiorstwa. Jeśli nie wyobrażamy sobie, że dany fragment dokumentu wisi upubliczniony w Internecie, nie wklejamy go do czatu. Lepiej zostawić dokument w szufladzie.
3. To, co generuje AI, wymaga weryfikacji. ChatGPT zmyśla, podaje błędne dane, nieprawdziwe cytaty, a nawet nieistniejące całe artykuły naukowe. Zawsze weryfikuj otrzymany output.
4. Warto znać politykę swojej firmy. Wiele przedsiębiorstw wdraża wewnętrzne regulaminy używania AI. Zanim sięgniesz po nowe narzędzia, upewnij się, jakie zasady obowiązują w miejscu pracy.
5. Transparentność. Jeśli ktoś pyta, czy tekst powstał samodzielnie, uczciwa odpowiedź to dziś kwestia nie tylko etyki, ale i zawodowej wiarygodności.
Kiedy warto wybrać lepsze narzędzie niż darmowy ChatGPT?
Darmowa wersja sprawdza się świetnie do wielu codziennych zadań: redagowania e-maili, tłumaczenia tekstów, szukania pomysłów. Przy regularnej pracy z danymi poufnymi lub osobowymi warto wdrożyć bezpieczną alternatywę. Na rynku dostępne są rozwiązania oferujące umowy powierzenia przetwarzania danych zgodne z RODO i wyższy poziom zabezpieczeń dla czatów. Takie rozwiązania dostarczają między innymi Microsoft Copilot zintegrowany z pakietem Microsoft 365 czy Google Gemini w wersji dla firm. Wybierając takie narzędzie, warto sprawdzić, czy dostawca oferuje certyfikaty zgodności z europejskim prawem i czy dane są przetwarzane na terenie Europejskiego Obszaru Gospodarczego. Decyzja o wyborze konkretnego narzędzia leży po stronie przedsiębiorstwa, ale to pracownicy tworzą swoje firmy. Jeśli zatem wiesz, że w organizacji ten temat jeszcze nie był poruszany, warto go podjąć z przełożonym lub działem IT.
AI jako narzędzie pracy
Traktujmy AI jako narzędzie i korzystajmy z niego świadomie, mądrze, bezpiecznie. ChatGPT może być w biurze ogromnym sprzymierzeńcem, ponieważ oszczędza czas, wspiera kreatywność i pomaga w realizacji niektórych zadań. Kluczowe, by pamiętać o ograniczeniach tego narzędzia i o zasadach bezpiecznego użytkowania. Dlatego dane osobowe i tajemnice przedsiębiorstwa zostają poza czatem, a to, co AI wygeneruje, zawsze wymaga weryfikacji.
Artykuł ma charakter informacyjny i nie stanowi porady prawnej.
Czytaj także: Kreatywność a AI. Czy pracownicy branż kreatywnych mogą wkrótce stracić pracę?
Sylwia Chrabałowska
Jest prezeską Fundacji Moc Kobiet i CEO wydawnictwa Moc Media. Zasiada jako wiceprzewodnicząca rady nadzorczej IDH Development SA oraz jest członkinią Chapter Zero Poland, PTWK i SAiW Copyright Polska. Współorganizowała apolityczną kampanię profrekwencyjną „Kobiety na Wybory". Wykładowczyni akademicka, wieloletnia mentorka SGH. Ekspertka w obszarze AI i prawa autorskiego. Od 25 lat wspiera przedsiębiorców i liderów w rozwoju osobistym i biznesowym. Prowadzi podcast „Anatomia Mocy".