- Raport firmy Anthropic z 2025 roku ujawnia, jak cyberprzestępcy wykorzystują AI do ataków ransomware, co rewolucjonizuje firmowe zarządzanie ryzykiem
- Wykorzystanie zapytań do AI jako dowodu w sądzie fundamentalnie zmienia korporacyjne strategie biznesowe w zakresie ochrony danych
- Analiza danych z przełomowej sprawy sądowej wskazuje, że masowa analityka rozmów z AI staje się nowym narzędziem w sporach o prawa autorskie
- Unikalny styl zapytań do sztucznej inteligencji może stać się cyfrowym odciskiem palca pracownika, tworząc nowe wyzwania dla każdego modelu biznesowego
- Czy obecna strategia biznesowa twojej firmy jest gotowa na wyzwania związane z transformacją cyfrową wymiaru sprawiedliwości?
Prompt jak odcisk palca. Jak ChatGPT pomógł schwytać przestępcę?
Amerykańskie służby federalne przekroczyły nową granicę w pozyskiwaniu dowodów cyfrowych. W ramach przełomowej sprawy sąd w stanie Maine nakazał firmie OpenAI, twórcy popularnego ChataGPT, przekazanie pełnych danych jednego z użytkowników. Śledztwo prowadzone przez Departament Bezpieczeństwa Wewnętrznego (DHS) dotyczyło handlu materiałami przedstawiającymi wykorzystywanie seksualne dzieci. Służby uzyskały w ten sposób dostęp do historii rozmów z AI, danych osobowych, a nawet informacji płatniczych podejrzanego. Kluczowy dla sprawy okazał się agent działający pod przykrywką, któremu administrator strony w ukrytej części internetu (dark web) przyznał się do korzystania z ChataGPT. Co więcej, podzielił się z nim konkretnymi zapytaniami (tzw. promptami) kierowanymi do sztucznej inteligencji, które zadziałały jak cyfrowy odcisk palca i pozwoliły na jego jednoznaczną identyfikację. Ten precedensowy wyrok pokazuje, że nasze interakcje z modelami językowymi nie są już sferą w pełni prywatną i mogą stać się dowodem w sądzie.
To, co odróżnia nakaz z Maine od dotychczasowych praktyk, to jego precyzja. Zamiast prosić firmy technologiczne, takie jak Google, o ogromne pakiety danych dotyczące wielu osób, co można porównać do zarzucania szerokiej sieci, tym razem służby działały jak snajper, celując w jedno, konkretne konto. Według ekspertów prawnych takie ukierunkowane działanie jest znacznie bardziej zgodne z czwartą poprawką do Konstytucji USA, która chroni obywateli przed nieuzasadnionymi przeszukaniami. W odpowiedzi na nakaz OpenAI dostarczyło dane w formie arkusza kalkulacyjnego, ale jednocześnie zaostrzyło swoje wewnętrzne regulacje. Teraz firma wymaga od organów ścigania dokładnego wskazania konta, którego dotyczy wniosek. Jest to próba znalezienia równowagi między obowiązkiem współpracy z prawem a ochroną prywatności milionów użytkowników w nowej, niepewnej rzeczywistości prawnej.
Nie tylko w sprawach karnych. Miliony rozmów z AI jako dowód w sądzie
Sprawa kryminalna z Maine otworzyła jednak znacznie szersze pole do dyskusji, ponieważ dostęp do naszych rozmów z AI nie ogranicza się już tylko do najpoważniejszych przestępstw. Już w październiku 2025 roku sędzia federalny wydał znacznie bardziej kontrowersyjny nakaz, zmuszając OpenAI do przekazania aż 20 milionów prywatnych konwersacji z ChatGPT. Tym razem dane miały posłużyć jako dowód w sporze o prawa autorskie, wytoczonym firmie przez organizacje medialne. OpenAI argumentowało, że 99,99% tych rozmów nie ma żadnego związku ze sprawą, jednak sąd uznał, że usunięcie danych osobowych (czyli anonimizacja) w pełni wystarczy, by chronić prywatność użytkowników. Decyzja ta wywołała alarm wśród organizacji broniących praw cyfrowych, takich jak Electronic Frontier Foundation. Ostrzegają one, że takie wyroki stanowią poważne zagrożenie dla prywatności i mogą zmusić firmy technologiczne do nieograniczonego przechowywania naszych danych, nawet jeśli zażądamy ich usunięcia.
Zainteresowanie służb danymi z AI nie bierze się znikąd. Jest to bezpośrednia odpowiedź na fakt, że z tych samych narzędzi coraz chętniej korzystają cyberprzestępcy. Jak ujawnił sierpniowy raport firmy Anthropic z 2025 roku, sztuczna inteligencja znacząco obniża próg wejścia dla osób chcących przeprowadzać zaawansowane ataki, takie jak:
- kradzież i szantażowanie danymi (ekstorsja),
- oszustwa rekrutacyjne,
- tworzenie złośliwego oprogramowania blokującego dostęp do komputera w zamian za okup (ransomware).
W tym samym czasie sam system prawny z trudem nadąża za technologią. Poważnym wyzwaniem jest tak zwany problem „czarnej skrzynki”, który polega na tym, że algorytmy AI są tak skomplikowane, że często nawet ich twórcy nie potrafią wyjaśnić, jak doszły do konkretnego wniosku. To utrudnia sądowi ocenę, czy dowód pochodzący z AI jest wiarygodny. Sytuację dodatkowo komplikują przypadki, gdy personel sądowy bez zezwolenia używał AI do pisania orzeczeń, co podważa zaufanie do całego wymiaru sprawiedliwości. Wszystko to stawia nas przed fundamentalnym pytaniem o granice cyfrowego nadzoru i możliwość zapewnienia sprawiedliwego procesu w erze sztucznej inteligencji.
