Zagrożenie zewnętrzne
Osoby nieuprawnione do dostępu do przetwarzanych w naszej firmie danych osobowych mogą zastosować AI, aby taki dostęp uzyskać.
Uwaga
AI coraz częściej służyć może jako narzędzie do wyrafinowanych cyberataków na zasoby naszej firmy.
Nie sposób stworzyć zamkniętego katalogu możliwych ataków z użyciem AI, a ich rodzaj ogranicza w zasadzie jedynie wyobraźnia napastników.
Przykład
Hakerzy mogą wykorzystać tzw. technologię deepfake, aby wyłudzić od pracowników firmy konkretne informacje, w tym dokumenty i bazy danych. Organizując spotkanie online, hakerzy mogą dzięki AI stworzyć realną podobiznę prezesa firmy, który może jego głosem poprosić o wysłanie konkretnych danych na adres hakerów.
Powyższy przykład wskazuje również, że jeszcze mniej trudności może sprawić wykorzystywanie AI do wyłudzania informacji poprzez telefon lub e-mail. AI wykorzystywana przez hakerów może też analizować zabezpieczenia firmy, wyręczając w tym osobę atakującą. Tym samym, nasze zabezpieczenia poddawane mogą być stałym próbom ataku, w ramach których w każdej chwili AI napastników wykorzysta istniejącą lukę w systemie. Do ataku hakerzy mogą także wykorzystać nasz własny system AI.
Uwaga
Wykorzystywany w naszej firmie, np. jako element zabezpieczeń, system AI hakerzy mogą zaatakować, zmieniając polecenia wydawane temu systemowi. W ten sposób nasz własny system AI może zacząć pracować na rzecz napastników, przekazując im chronione dane.
Zagrożenie wewnętrzne
Kolejna grupa zagrożeń, która ma związek z istnieniem AI, to zagrożenia wewnętrzne. Nieumiejętne korzystanie z AI np. ze strony naszego personelu może skutkować naruszeniem ochrony danych, które przetwarzamy.
Przykład
Pracownik naszej firmy stosuje system AI niezgodnie z instrukcją obsługi. W rezultacie system zaczyna pobierać i przekazywać nieuprawnionym osobom czy też usuwać dane osobowe, które nasza firma przetwarza.
Ponadto, źródłem zagrożenia może być sam system AI, który będzie działać niezgodnie z założeniami jego dostawcy.
Przykład
Dostarczony naszej firmie przez dostawcę system AI zacznie bez naszej zgody i wiedzy przetwarzać dane poprzez ich pomieszanie, usunięcie czy też przekazanie nieuprawnionym osobom.
Zagrożenie może również wynikać z wykorzystywania ogólnodostępnych systemów AI, tj. systemów, które świadczą usługi wszystkim.
Przykład
Model pokroju Chatu GPT może wykorzystać wprowadzone do niego poufne dane i przekazać je innemu użytkownikowi, np. pracownikowi innej firmy w ramach udzielanej mu odpowiedzi. Do takiej sytuacji może zatem dojść, gdy członek naszego personelu wprowadzi do takiego systemu dane, których nie powinien ujawniać na zewnątrz.
AI jako element cyberbezpieczeństwa
Pomimo opisanych zagrożeń, należy wskazać też na cechy AI jako pracującego dla nas elementu systemu cyberbezpieczeństwa. Nie sposób bowiem zignorować faktu, że wyścig zbrojeń pomiędzy cyberprzestępcami a ich potencjalnymi ofiarami będzie często przebiegać z wykorzystaniem systemu AI. Odpowiednio zaprojektowany system AI możemy wykorzystać do walki z różnymi cyberzagrożeniami.
|