Dane z czatbotów AI mogą dostać się w ręce cyberprzestępców, zagranicznych służb czy reklamodawców i zostać wykorzystane na niekorzyść użytkowników – ostrzega w rozmowie z PAP Mateusz Chrobok, ekspert ds. cyberbezpieczeństwa. Zalecił stosowanie higieny cyfrowej i sceptycyzm wobec generowanych treści.
Mateusz Chrobok, ekspert cyberbezpieczeństwa i AI, który prowadzi platformę edukacyjną oraz kanał na YouTube obserwowany przez 157 tys. osób zwrócił uwagę, iż firmy technologiczne rozwijające czatboty sztucznej inteligencji często pozyskują dane o użytkownikach z internetu, w tym z mediów społecznościowych oraz na podstawie informacji, które wpisują oni do czatbotów. – Na tej podstawie jesteśmy przez daną firmę zwykle profilowani, aby odpowiedzi czatbota były bardziej do nas dopasowane – wyjaśnił.
Ekspert wskazał, iż z promptów, czyli zapytań, które dany użytkownik wpisuje do czatbota, firmy mogą wyczytać informacje o języku, jakim się on posługuje, wyglądzie – w przypadku dołączanych zdjęć, o poglądach, sytuacji rodzinnej, problemach itp. Niektóre firmy dodatkowo proszą o dostęp do informacji z urządzenia użytkownika, np. kontaktów, lokalizacji. – Chiński DeepSeek zbierał też sposób pisania na klawiaturze, z którego można wyciągnąć sporo danych, np. wiek, bądź to czy jesteśmy danego dnia zmęczeni lub niewyspani – zauważył Chrobok.
– Zdarza się, iż jesteśmy kuszeni oddaniem swoich danych w zamian za darmowy dostęp do czatbota, lepszy model itp. Czyli tak naprawdę oddajemy naszą prywatność za pewne korzyści – zaznaczył. Wskazał, iż korzystanie z czatbotów wiąże się z ryzykiem wycieku wrażliwych danych. Chrobok przypomniał sytuację sprzed dwóch lat, kiedy to firma OpenAI pomyliła indeksy użytkowników ChatGPT. Skutkowało to sytuacją, w której po zalogowaniu się na swoje konto, dana osoba miała dostęp do historii rozmów innej osoby. – Problem dotknął 1,2 proc. użytkowników, ale w praktyce to miliony osób – podkreślił.
Innym zagrożeniem bezpieczeństwa związanym z czatbotami jest atak ATO, czyli Account Takeover (przejęcie konta – PAP) – wskazał ekspert. Po przejęciu konta cyberprzestępca może zyskać dostęp do danych z historii konwersacji użytkownika, np. imienia, nazwiska, numeru telefonu, numeru karty kredytowej, jeżeli przez przypadek ją wpisał lub udostępnił w jakimś dokumencie – ostrzegł Chrobok. – Badania pokazują, iż modele przechowują tego typu informacje i o ile będą na nich trenowane, nie da się ich łatwo wymazać. Są też sposoby, jak te dane wyciągnąć z czatbota – zaznaczył ekspert.
Dodał, iż część firm umożliwia użytkownikom wyłączenie opcji zapisywania historii czy szkolenia modelu na ich danych. „Dla bardzo wrażliwych informacji najbezpieczniej jest zainstalować na swoim urządzeniu lub serwerze lokalny model. Wtedy jest największa szansa, iż nasze dane nie wyciekną” – podkreślił.
Chrobok wskazał, iż zbierane dane mogą też posłużyć do tworzenia profilowanych reklam. – Wyobraźmy sobie, iż mamy gorszy dzień albo zmagamy się z depresją, otyłością, czy innym problemem i reklamodawcy wykorzystują te informacje, aby wpłynąć na nasze decyzje zakupowe, które niekoniecznie będą dla nas korzystne. Wchodzimy tutaj w szary świat manipulacji. To co, uważamy, iż byłoby dla nas dobre, niekoniecznie jest dobre dla twórców modeli AI i firm, które optymalizują zysk – ocenił.
Według eksperta na poziom ochrony danych użytkowników może wpływać kraj pochodzenia czatbota. – DeepSeek czyli chińska firma, tworzy świetne modele takie jak r1, ale jest on blokowany w wielu miejscach, ponieważ zgodnie z chińskim prawem, jego twórcy muszą przekazywać dane o użytkownikach władzom, a te np. mogą oddać je służbom – wskazał. Podał przykład hipotetycznej sytuacji, w której amerykański urzędnik pisze z chińskim czatbotem i opowiada mu o swoich problemach z rodziną, czy biznesem. – Zebrane informacje mogłyby posłużyć Chinom do zwerbowania tej osoby na szpiega bądź do innego wywarcia wpływu. Myślę, iż ujawniając nasze słabości, jesteśmy w takiej sytuacji bardziej podatni na manipulację – podkreślił.
Chrobok zaznaczyła, iż badania pokazują, iż modele odzwierciedlają poglądy ich twórców. – Przykładowo chiński DeepSeek ma negatywny sentyment (ton generowanej treści – PAP) przy wypowiedziach o amerykańskich żołnierzach, a modele OpenAI zupełnie odwrotnie – wskazał i dodał, iż „każdy model to pewna bańka informacyjna”. – One nie są neutralne, nawet, jeżeli niektórzy twórcy starają się, aby takie były. Warto o tym pamiętać – podkreślił.
Ekspert pytany o bezpieczeństwo korzystania z czatbotów jako wsparcie emocjonalne, czy terapeutę – co czyni część użytkowników, przywołał sytuację, która miała miejsce w 2023 r. w Belgii. Mężczyzna, który był bardzo świadomy problemów związanych z globalnym ociepleniem, pisał na ten temat z czatbotem. W pewnym momencie AI podpowiedziała mu, iż jeżeli chce zmniejszyć ilość CO2, którą generuje, to najlepiej, gdyby go nie było, wskutek czego mężczyzna odebrał sobie życie. Było to pierwsze zarejestrowane samobójstwo po rozmowie ze sztuczną inteligencją – zaznaczył ekspert.
– To jest ekstremum, które jednak pokazuje, co może nam grozić, kiedy prosimy AI o radę, dzielimy się z nią swoim stanem psychicznym i poglądami. Odpowiedzi, których udziela, są oparte na statystyce, co oznacza, iż nie zawsze będą trafne. Dzięki postępowi technologii w coraz większym stopniu takie właśnie są, co sprawia, iż najczęściej im ufamy, a to może uśpić naszą czujność – zaznaczył i dodał, iż im bardziej specjalistyczne zagadnienie, tym bardziej – przynajmniej na chwilę obecną – modele sztucznej inteligencji się mylą.
– Można to znacznie poprawić technicznymi metodami jak Deep Research (zaawansowana metoda analizy informacji – PAP), ale nie każdy wie, jak z nich korzystać. Dlatego też zachęcam do sceptycyzmu wobec treści, które generują czatboty – podkreślił ekspert.
Chrobot pytany o zagrożenia związane z czatbotami w miejscu pracy, podał przykład z 2023 r., kiedy to pracownik firmy Samsung wrzucił w ChatGPT prezentację z tajnymi danymi, które w konsekwencji wyciekły i mogła je zdobyć konkurencja. – Tego boi się wiele firm, managerów i zdarza się, iż całkowicie zakazują pracownikom korzystania ze sztucznej inteligencji. Moim zdaniem to nie jest dobra droga – ocenił edukator. Według niego, bez tej technologii firmy będą mniej konkurencyjne. – Po prostu trzeba wiedzieć, jak bezpiecznie z niej korzystać – zaznaczył.
Według Chroboka proces bezpiecznego wdrażania AI w firmach należy zacząć od wypracowania „higieny AI”, czyli edukacji samych przełożonych, a później pracowników. – Po drugie, ważne są środki techniczne – wskazał i wyjaśnił, iż istnieje cała dziedzina rozwiązań o nazwie Data Leak Prevention (ochrona przed wyciekiem danych – PAP), w którą mogą zainwestować pracodawcy. Należą do niej np. modele, które oceniają, jakie dane mogą opuścić firmę, a jakie nie. Ekspert wskazał, iż w każdej organizacji powinny również istnieć zasady korzystania z AI, w których określa się np. jakie dane można wrzucić do czatbota, które z nich są wrażliwe, a które powinny być oznaczone jako wygenerowane przy pomocy sztucznej inteligencji, bo np. tego wymaga prawo.
Ekspert pytany, czy – według niego – mimo ryzyk sztuczna inteligencja powinna być implementowana w każdej firmie, stwierdził, iż zmuszanie wszystkich przedsiębiorców do AI byłoby „nieludzkie”. – Ale lepiej znać tę technologię, bo może pomóc odnaleźć się na rynku pracy, czy usprawnić samą pracę, tak by było jej mniej i by była bardziej efektywna – ocenił.
– Jesteśmy w momencie, który niektórzy określają ewolucją, rewolucją, czy używają innych wielkich słów. To jeszcze nie jest ten moment, gdzie AI nas przerasta, chociaż pod pewnymi względami na pewno tak jest – wskazał.