News Pricer.lt

Prekybos naujienos

Pracownicy zdradzają sztucznej inteligencji firmowe sekrety

Pracownicy zdradzają sztucznej inteligencji firmowe sekrety

Wraz z rosnącą popularnością narzędzi AI coraz więcej pracowników wykorzystuje je w realizacji zawodowych zadań. Jednocześnie jest to tykająca bomba, bo najczęściej konta, z których korzystają pracownicy, to konta prywatne, funkcjonujące poza kontrolą działu IT. Narzędzia LLM (Large Language Model) działają w ten sposób, że informacje, jakie są do nich wprowadzane, są przez nie wchłaniane do bazy danych. A duża część z nich to dane wrażliwe lub takie, które nie powinny nigdy wypłynąć poza organizację.

Niekontrolowany przepływ informacji

Cyberhaven Labs przeanalizował wzorce korzystania z narzędzi generatywnej sztucznej inteligencji przez 3 miliony pracowników. W ciągu 12 miesięcy, od marca 2023 do marca 2024 ilość danych korporacyjnych wprowadzanych przez pracowników do narzędzi AI wzrosła o 485 proc. W 96 proc. pracownicy korzystają z narzędzi technologicznych gigantów, czyli OpenAI, produktów Google oraz Microsoft.

Jeśli chodzi o pracowników-użytkowników narzędzi AI, najczęściej są to przedstawiciele firm technologicznych. W marcu tego roku blisko co czwarty pracownik (23,6 proc.) z branży technologicznej wprowadził dane firmowe do narzędzia AI. Pracownicy ci znacznie częściej niż inni umieszczali dane w narzędziach AI (ponad 2 mln zdarzeń na 100 tys. pracowników) i je stamtąd kopiowali (1,7 mln zdarzeń na 100 tys. pracowników). Poza tym z narzędzi generatywnej sztucznej inteligencji korzystali pracownicy sektora mediów i rozrywki (5,2 proc.), finansów (4,7 proc.) oraz firm farmaceutycznych (2,8 proc).

Wrażliwe dane

Okazuje się, że aż 27,4 proc. informacji, jakie wprowadzają pracownicy do narzędzi AI, to dane wrażliwe. Rok wcześniej ten odsetek był znacznie mniejszy i wynosił 10,7 proc.
– Narzędzia AI mają ogromny potencjał do pozytywnej transformacji miejsc pracy, zwiększają efektywność i produktywność pracowników. Wykorzystanie tych narzędzi przyspiesza i ułatwia im wykonywanie zadań, wiąże się jednak z szeregiem wyzwań. Dlatego ważne jest odpowiednie zarządzanie tą technologiczną zmianą i zadbanie o takie kwestie jak bezpieczeństwo i etyka – tłumaczy Natalia Zajic z Safesqr, firmy specjalizującej się w cyberbezpieczeństwie. – Modele AI działają w ten sposób, że dane, którymi są zasilane, stają się częścią ich bazy danych. Wprowadzanie informacji dotyczących organizacji do takich narzędzi może stworzyć ryzyko ich niewłaściwego wykorzystania – dodaje ekspert.

Jakie dane są wprowadzane? 

Najbardziej popularnym typem danych wrażliwych umieszczanych w narzędziach AI są informacje związane z obsługą klienta (16,3 proc. danych wrażliwych), która obejmuje poufne treści od klientów zgłaszających swoje problemy. Inne to kod źródłowy (12,7 proc.), materiały badawczo-rozwojowe (10,8 proc.), dokumentacja dotycząca pracowników (3,9 proc.) i dane finansowe (2,3 proc.).

Największy problem to zasilanie narzędzi AI danymi dotyczącymi organizacji poprzez prywatne konta pracowników. Okazuje się, że aż 82,8 proc. dokumentów prawnych umieszczanych przez pracowników w narzędziach AI trafia tam w ten sposób. Może to doprowadzić do wykorzystania danych firmowych w potencjalnie niebezpieczny sposób. Przykład? 3,4 proc. materiałów badawczo-rozwojowych stworzonych w marcu br. pochodziło z narzędzi AI. Co, jeśli na ich podstawie zostanie przyznany jakiś patent? W tym samym okresie 3,2 proc. kodu źródłowego wygenerowały narzędzia IA, co z kolei może budzić niepokój pod kątem bezpieczeństwa. Narzędzia AI odpowiadają już za 3 proc. grafik i projektów, co z kolei może wiązać się z naruszeniami praw autorskich i znaków towarowych.

Przeciętny pracownik umieszcza dziś więcej danych korporacyjnych w narzędziach AI w sobotę lub niedzielę niż w środku tygodnia pracy rok temu.

 

Źródło informacji

Dalintis:
0 0 balsai
Straipsnio vertinimas
guest
0 Komentarai
Inline Feedbacks
Rodyti visus komentarus

Taip pat skaitykite: