Dane z czatbotów zagrożeniem dla prywatności

i

Autor: Shutterstock

Sztuczna Inteligencja

Nie mów zbyt dużo czatbotowi AI! Może być zagrożeniem dla twojej prywatności

2025-05-31 19:00

Korzystając z czatbotów, większość osób nie zastanawia się, że przekazuje w ten sposób wiele swoich prywatnych informacji innej firmie. Jak wyjaśnia ekspert, dane wprowadzone przez nas trafiają potem do reklamodawców, zagranicznych służb, lub w skrajnych przypadkach do cybeprzestępców, a następnie mogą zostać zastosowane przeciwko nam.

Jak czatboty AI zbierają dane o użytkownikach?

Firmy technologiczne, które rozwijają czatboty AI, gromadzą dane o użytkownikach z różnych źródeł. Jak wyjaśnia w rozmowie z PAP Mateusz Chrobok ekspert w dziedzinie cyberbezpieczeństwa i AI, informacje te pochodzą z:

  • Internetu: w tym z mediów społecznościowych, gdzie dzielimy się swoimi opiniami, zainteresowaniami i danymi osobowymi.
  • Zapytań (promptów): które wpisujemy do czatbotów, zdradzając swoje poglądy, sytuację rodzinną, problemy i język, jakim się posługujemy.
  • Dostępu do urządzeń: niektóre firmy proszą o dostęp do kontaktów, lokalizacji i innych informacji przechowywanych na naszych urządzeniach.

Chrobok zwraca uwagę na przykład chińskiego DeepSeek, który zbierał dane o sposobie pisania na klawiaturze, co pozwalało na wyciągnięcie informacji o wieku, zmęczeniu czy poziomie wyspania użytkownika.

Dane, które wprowadzamy do AI potem mogą być wykorzystane

Ekspert ostrzega, że korzystanie z czatbotów wiąże się z realnym ryzykiem wycieku wrażliwych danych. Przypomina sytuację sprzed dwóch lat, kiedy to firma OpenAI pomyliła indeksy użytkowników ChatGPT, co spowodowało, że obcy ludzie mieli dostęp do historii rozmów innych osób. Problem dotknął miliony użytkowników.

Innym zagrożeniem jest atak ATO (Account Takeover), czyli przejęcie konta. Cyberprzestępca, który zdobędzie dostęp do naszego konta, może uzyskać informacje z historii konwersacji, takie jak imię, nazwisko, numer telefonu czy numer karty kredytowej.

Zebrane dane mogą być wykorzystywane do tworzenia profilowanych reklam, które trafiają w nasze słabe punkty. Jak zauważa Chrobok, reklamodawcy mogą wykorzystać informacje o naszych problemach (np. depresji, otyłości) do wpływania na nasze decyzje zakupowe, które niekoniecznie będą dla nas korzystne. W ten sposób wkraczamy w "szary świat manipulacji".

Jakie informacje mogą być potencjalnie niebezpieczne po wprowadzeniu do modelu AI?

Ekspert podkreśla, że na poziom ochrony danych użytkowników może wpływać kraj pochodzenia czatbota. Chiński DeepSeek, mimo że tworzy świetne modele, jest blokowany w wielu miejscach, ponieważ zgodnie z chińskim prawem jego twórcy muszą przekazywać dane o użytkownikach władzom.

Chrobok podaje przykład hipotetycznej sytuacji, w której amerykański urzędnik zwierza się chińskiemu czatbotowi ze swoich problemów. Zebrane informacje mogłyby posłużyć Chinom do zwerbowania tej osoby na szpiega lub do innego wywarcia wpływu.

Część użytkowników traktuje czatboty jako wsparcie emocjonalne lub terapeutę. Chrobok przywołuje tragiczną sytuację z Belgii, gdzie mężczyzna, który pisał z czatbotem o problemach związanych z globalnym ociepleniem, odebrał sobie życie po tym, jak AI zasugerowała mu, że najlepiej byłoby, gdyby go nie było.

Ekspert podkreśla, że odpowiedzi czatbotów są oparte na statystyce i nie zawsze będą trafne. Im bardziej specjalistyczne zagadnienie, tym bardziej modele sztucznej inteligencji mogą się mylić. Dlatego zachęca do sceptycyzmu wobec treści generowanych przez czatboty.

AI w firmie może być niebezpieczne

Chrobok podaje przykład pracownika firmy Samsung, który wrzucił w ChatGPT prezentację z tajnymi danymi, które w konsekwencji wyciekły. Wiele firm zakazuje pracownikom korzystania ze sztucznej inteligencji, ale ekspert uważa, że to nie jest dobra droga. Bez tej technologii firmy będą mniej konkurencyjne.

Według Chroboka, proces bezpiecznego wdrażania AI w firmach powinien zacząć się od wypracowania "higieny AI", czyli edukacji pracowników. Ważne są również środki techniczne, takie jak Data Leak Prevention (ochrona przed wyciekiem danych). W każdej organizacji powinny istnieć zasady korzystania z AI, które określają, jakie dane można wrzucić do czatbota, a które są wrażliwe.

Chrobok uważa, że zmuszanie wszystkich przedsiębiorców do AI byłoby "nieludzkie". Jednak lepiej znać tę technologię, ponieważ może pomóc odnaleźć się na rynku pracy i usprawnić pracę.

- Jesteśmy w momencie, który niektórzy określają ewolucją, rewolucją, czy używają innych wielkich słów. To jeszcze nie jest ten moment, gdzie AI nas przerasta, chociaż pod pewnymi względami na pewno tak jest [...] Modele AI też mają swoje ograniczenia i zagrożenia, ale są coraz dokładniejsze i w przyszłości staną się lepsze od ludzi. Nasze umiejętności i zdolności będą po prostu słabsze - ocenia Chrobok.

Super Biznes SE Google News
WIELKI QUIZ. Waloryzacja, inflacja, monopol. Ekonomiczny quiz, który sprawdzi, czy jesteś bogaty w wiedzę!
Pytanie 1 z 15
Co to jest PKB?
QUIZ PRL. Waloryzacja, inflacja, deflacja. Ekonomiczny quiz, który sprawdzi, czy jesteś bogaty w wiedzę!

Player otwiera się w nowej karcie przeglądarki

Najnowsze