Jak obchodzimy się z Pana danymi

Dane Pana firmy są wrażliwe. Rysunki techniczne, umowy, dane klientów, wypisy z KRS, korespondencja. Poniżej opisujemy dokładnie, jak KonsultingAI je chroni i co gwarantują sami dostawcy modeli językowych.

Polityka prywatności i bezpieczeństwa danych

UE domyślnie. Nigdy do trenowania modeli. Koniec tematu.

KonsultingAI przetwarza dane klientów przez enterprise'owe API dostawców modeli językowych: Anthropic (Claude), OpenAI i Google (Gemini). Nasza architektura jest zaprojektowana pod zerową retencję danych; konkretne ustawienia retencji ustalamy per projekt i zapisujemy w Data Processing Agreement. Dane Pana firmy nigdy nie są wykorzystywane do trenowania modeli.


Domyślnie Unia Europejska. Opcjonalnie Polska lub on-premises.

Domyślny region przetwarzania: Unia Europejska. Dla klientów z wymogami rezydencji danych dostępne są opcje: AWS Frankfurt, AWS Paryż, OVHcloud Warszawa, Beyond.pl / Atman (Polska), instalacja on-premises. Konkretny dostawca dobierany jest per projekt i zapisywany w Data Processing Agreement.

Nie przetwarzamy danych klienta w regionach US. Jeśli Pana firma ma specyficzne wymogi compliance (finanse, zdrowie, sektor obronny, dane osobowe w rozumieniu RODO), rozmawiamy o nich wprost przed rozpoczęciem projektu.


Nie musi Pan wierzyć nam. Niech Pan przeczyta ich.

Każdy z dostawców publikuje czytelne, kontraktowo wiążące polityki dla użytku API i Enterprise. To nie są obietnice marketingowe, tylko zobowiązania umowne. Zobowiązanie wobec klienta zapisujemy każdorazowo w Data Processing Agreement, którego kopię udostępniamy po rozmowie dyskwalifikującej wymagania.

Dostawca Okres przechowywania Wykorzystanie do treningu? Polityka
Anthropic (Claude) Logi API 7 dni. Dostępna opcja Zero Data Retention. Nie. Dane API nie są wykorzystywane do trenowania modeli. Anthropic Privacy Center →
OpenAI Dane API do 30 dni, potem usuwane. Dostępna opcja Zero Data Retention. Nie. Dane API i Enterprise nie są wykorzystywane do treningu. OpenAI Enterprise Privacy →
Google (Gemini) Enterprise: do 30 dni na potrzeby wykrywania nadużyć. Administrator może skrócić lub wyłączyć. Nie. Płatne dane API nie są wykorzystywane do treningu. Google Cloud Zero Data Retention →

Uwaga: powyższe polityki dotyczą użytku API i Enterprise, i tak właśnie działa KonsultingAI. Darmowe produkty konsumenckie (np. darmowy ChatGPT) mogą mieć inne warunki. Nie używamy kanałów konsumenckich do przetwarzania danych klientów.


Tylko to, co potrzebne. Nic więcej.

Typ danych Źródło Jak wykorzystujemy
Rysunki techniczne, karty materiałowe (produkcja) Klient, na wyraźne zlecenie, po NDA Automatyzacja procesu ofertowania, wyciąganie parametrów, generowanie zapytań do dostawców
Dokumenty korporacyjne, wypisy z KRS/KW (kancelarie) Klient + źródła publiczne (MSiG, Monitor Sądowy, EKW) Przyspieszenie due diligence, generowanie dossier, monitorowanie terminów
Zamówienia, potwierdzenia, raporty (firmy usługowe) Systemy klienta (ERP, CRM) za zgodą Automatyzacja dokumentacji powtarzalnej, generowanie potwierdzeń
Dane z publicznych źródeł KRS, MSiG, EKW, strony urzędowe Wzbogacanie i weryfikacja danych w procesach DD i monitorowaniu

Dane publiczne (KRS, MSiG, EKW) nie wymagają specjalnych uprawnień. Dane wewnętrzne klienta (rysunki, systemy ERP, wyciągi bankowe) są dostępne wyłącznie za pisemną zgodą, w zakresie jednego projektu, z logowaniem dostępu.


Topologia, nie certyfikat.

Architektura wspiera wdrożenia on-premises i w pełni UE-hostowane dla klientów z wymogami rezydencji danych (w szczególności sektor obronny i dostawcy NATO). Nie deklarujemy posiadanych certyfikatów MON ani NATO, których nie mamy, zamiast tego opisujemy topologię, którą możemy zbudować na wymaganym poziomie.

Co to oznacza w praktyce. Dla projektu z wymogami rezydencji danych i ograniczeniami na poziomie dostępu sieciowego dobieramy konfigurację per projekt: wdrożenie na infrastrukturze klienta, separacja środowisk, ograniczone role dostępu, audyt logów. Wszystko kontraktowo, w DPA podpisanym przed pierwszym przetwarzaniem.


Pana dane pracują dla Pana. Potem znikają.

Maksymalnie do końca projektu. Nigdy w trenowaniu modeli. API klasy Enterprise z kontraktowymi gwarancjami prywatności od Anthropic, OpenAI i Google. Jeśli ma Pan specyficzne wymogi compliance, rozmawiamy o nich wprost.