DEKLARACJA ETYKI AI

Deklaracja zasad etycznego korzystania z modeli sztucznej inteligencji

Wprowadzenie

Nasza organizacja od lat kieruje się wartościami: Sprawiedliwość, Skuteczność, Sprawczość, Kreatywność i Służba. Te wartości stanowią nasz fundament i pomagają nam podejmować decyzje. W obliczu rozwoju technologii sztucznej inteligencji (AI), uznajemy potrzebę określenia jasnych zasad jej wykorzystania, które będą zgodne z naszym systemem wartości.

Sztuczna inteligencja to narzędzie, które naśladuje ludzkie zachowania i uczy się na podstawie dostarczonych jej danych. Jej działanie opiera się głównie na rozpoznawaniu wzorców w dużych zbiorach informacji i tworzeniu na tej podstawie odpowiedzi.

Z pełną świadomością o przepisach europejskich dotyczących AI (AI Act) oświadczamy, że nasza organizacja nie używa systemów AI uznawanych za systemy wysokiego ryzyka. Mimo braku formalnych zobowiązań wynikających z tego rozporządzenia, dobrowolnie przyjmujemy zasady etycznego, przejrzystego i odpowiedzialnego korzystania z narzędzi opartych na sztucznej inteligencji, kierując się troską o prawa człowieka, dobro wspólne i zaufanie społeczne.

Główne zasady etycznego korzystania z AI

  1. Odpowiedzialność człowieka

Zawsze człowiek odpowiada za treści tworzone przy wsparciu AI. Zarówno przy tworzeniu tekstów medialnych, przygotowywaniu pism, jak i prowadzeniu analiz, to pracownik formułuje zadanie, nadzoruje proces i zatwierdza końcowy efekt pracy. Sztuczna inteligencja jest wyłącznie narzędziem wspomagającym.

  1. Ochrona danych i prywatności

Nie wprowadzamy do modeli AI danych osobowych, informacji poufnych ani danych wrażliwych. Korzystając z narzędzi AI, przestrzegamy przepisów RODO oraz dbamy o bezpieczeństwo cyfrowe, zwracając uwagę na to, przez kogo i gdzie przechowywane są dane wprowadzane do systemów AI.

  1. Uczciwość i przejrzystość

Nie ukrywamy celowo wykorzystania AI w naszej pracy. Edycja i dostosowywanie tekstów tworzonych z pomocą AI jest dopuszczalna, gdy służy poprawie merytorycznej i dostosowaniu do kontekstu, a nie ukrywaniu pochodzenia. Podpisując dokument, bierzemy odpowiedzialność za jego treść niezależnie od stopnia wykorzystania AI.

  1. Równowaga technologii i doświadczenia

Traktujemy narzędzia AI jako uzupełnienie, a nie zastąpienie ludzkiego doświadczenia, wiedzy i intuicji. Dążymy do zachowania równowagi między wykorzystaniem nowoczesnych technologii a tradycyjnymi metodami pracy, pamiętając o międzypokoleniowej solidarności wobec wyzwań ery cyfrowej. 

  1. Krytyczne myślenie i weryfikacja

Zobowiązujemy się do sprawdzania faktów i informacji generowanych przez AI przed ich wykorzystaniem, zwłaszcza w kontekście zagadnień prawnych i pracowniczych. Nie traktujemy odpowiedzi modeli AI jako wiążących opinii prawnych.

Zasady etycznego korzystania w praktyce

  1. Tworzenie treści medialnych: Korzystamy z AI przy tworzeniu treści do mediów, ale człowiek osobiście formułuje zadanie, nadzoruje proces i zatwierdza publikację.
  2. Przygotowywanie dokumentów: AI może pomagać w przygotowaniu wstępnych wersji pism, ale człowiek ustala wytyczne, sprawdza treść, wprowadza zmiany i bierze odpowiedzialność za dokument.
  3. Wykorzystanie badawcze: Przy korzystaniu z AI jako narzędzia do badań i analiz, człowiek odpowiada za formułowanie pytań, wskazywanie wiarygodnych źródeł i weryfikację wyników.
  4. Zakaz tworzenia mylących obrazów: Nie używamy AI do tworzenia obrazów, które mogłyby sprawiać wrażenie prawdziwych fotografii.
  5. Dbałość o środowisko: Uwzględniamy wpływ narzędzi AI na środowisko, zwłaszcza pod względem zużycia energii elektrycznej.
  6. Ciągłe doskonalenie zasad: Zobowiązujemy się do regularnego przeglądu i aktualizacji niniejszych zasad w miarę rozwoju technologii AI.

Czego nie będziemy robić

  1. Nie wykorzystujemy AI do automatyzacji procesów negocjacyjnych z pracodawcami bez ludzkiego nadzoru.
  2. Nie traktujemy odpowiedzi modeli AI jako wiążących opinii prawnych.
  3. Nie używamy AI do tworzenia fałszywych dowodów, manipulowania faktami lub wypaczania rzeczywistości.
  4. Nie stosujemy narzędzi AI do śledzenia osób czy monitorowania ich aktywności.
  5. Nie wykorzystujemy AI do masowego generowania dokumentów bez indywidualnej weryfikacji.
  6. Nie stosujemy praktyk, których wyłącznym celem jest ukrycie faktu wykorzystania AI w tworzeniu tekstów.
  7. Nie angażujemy się w nieetyczne praktyki, takie jak wybiórcze stosowanie zasad etycznych, tworzenie pozorów etycznego działania czy przenoszenie nieetycznych praktyk poza główny obszar działalności.

Indywidualna odpowiedzialność

Każda osoba korzystająca z narzędzi sztucznej inteligencji w ramach naszej organizacji jest osobiście odpowiedzialna za sposób ich wykorzystania. Oznacza to, że:

  • użytkownik AI zawsze sprawdza i potwierdza poprawność generowanych treści,
  • ponosi konsekwencje za błędy w materiałach tworzonych z pomocą AI,
  • jest zobowiązany do zdobywania wiedzy o możliwościach i ograniczeniach narzędzi AI.

Lista kontrolna etycznego wykorzystania AI

Przed wykorzystaniem modelu AI w pracy, zadaj sobie następujące pytania:

  • Czy zadanie, które powierzam AI, jest odpowiednie i zgodne z naszymi wartościami?
  • Czy wprowadzane dane są bezpieczne i nie zawierają informacji poufnych?
  • Czy weryfikuję dokładnie wyniki generowane przez AI?
  • Czy biorę odpowiedzialność za ostateczną treść dokumentu?
  • Czy potrafię wyjaśnić i uzasadnić każdy element wygenerowanej treści?
  • Czy wykorzystanie AI w tym przypadku służy realnej poprawie jakości pracy?
  • Czy zachowuję równowagę między wykorzystaniem AI a własnym osądem i doświadczeniem?

Kluczowe pojęcia związane z etyką AI

  • Sztuczna inteligencja (AI): Systemy komputerowe zaprojektowane do wykonywania zadań, które tradycyjnie wymagały ludzkiej inteligencji.
  • Uczenie maszynowe: Metoda tworzenia AI, w której program uczy się na podstawie dostarczonych danych.
  • Projektowanie z uwzględnieniem etyki: Metoda uwzględniania wartości etycznych na każdym etapie projektowania systemów AI.
  • Skrzywienie algorytmiczne: Tendencja algorytmów AI do powielania stereotypów czy uprzedzeń obecnych w danych uczących.
  • Wyjaśnialność AI: Stopień, w jakim ludzie mogą zrozumieć, jak i dlaczego system AI doszedł do określonego wyniku.
  • Przejrzystość: Otwartość w komunikowaniu, jak działa system AI i jakie decyzje podejmuje.
  • Nadzór ludzki: Zasada, według której człowiek zawsze powinien mieć możliwość kontrolowania i korygowania działań systemów AI.

Postanowienia końcowe

Uznajemy, że odpowiedzialne korzystanie z modeli sztucznej inteligencji wymaga zarówno technicznych umiejętności, jak i etycznej refleksji. Za przestrzeganie zasad zawartych w niniejszej deklaracji oraz ich regularne przeglądy odpowiada Komisja Międzyzakładowa jako statutowy organ władzy wykonawczej naszej organizacji.

Niniejsza deklaracja stanowi wyraz naszego zaangażowania w odpowiedzialne korzystanie z nowoczesnych technologii przy jednoczesnym zachowaniu wartości, które od lat są fundamentem naszej organizacji.

Nota o powstaniu dokumentu: Niniejsza Deklaracja została opracowana z wykorzystaniem modeli sztucznej inteligencji. Cały proces tworzenia tekstu odbywał się pod ścisłym nadzorem człowieka, który formułował zapytania, weryfikował generowane treści, wprowadzał niezbędne poprawki oraz ostatecznie zatwierdził końcową wersję dokumentu. Proces ten stanowi praktyczną realizację zasad zawartych w samej Deklaracji.