„Agentic Browsing: Ryzyka i Wyzwania AI”

„Agentic Browsing: Ryzyka i Wyzwania AI”

Agentic Browsing: Kiedy Asystenci AI Otwierają Nowe Drzwi dla Cyberzagrożeń

Rozwój technologii opartych na sztucznej inteligencji, szczególnie w przeglądarkach internetowych, zaczyna odgrywać coraz większą rolę w naszych codziennych interakcjach z siecią. Wśród nich znajdują się asystenci AI, którzy mogą zarówno podsumowywać przeglądane treści, jak i realizować inne zadania. Jednak z ich pomocą jednocześnie rodzą się nowe, nieoczekiwane zagrożenia.

Niedawno na blogu twórców przeglądarki Brave omówiono temat tzw. agentic browsing, czyli przeglądania internetu z użyciem agentów AI. Jednym z przykładów jest agent Leo stworzony przez Brave, a także narzędzie Perplexity Comet. Chociaż te rozwiązania mogą być użyteczne, wprowadzają również ryzyko wycieku wrażliwych danych, zwłaszcza w kontekście bankowości elektronicznej czy telemedycyny. Okazuje się, że agenty AI mogą być podatne na ataki wykorzystujące tzw. „prompt injection”.

Atak Prompt Injection

Prompt injection polega na osadzeniu złośliwych instrukcji w treści strony internetowej, które następnie są realizowane przez agenta AI. Na przykład, gdy użytkownik prosi o streszczenie artykułu, agent AI może nie odróżnić treści strony od komend, co prowadzi do wykonania działań zgodnie z ukrytymi poleceniami. Taki scenariusz może umożliwić atakującemu uzyskanie dostępu do danych użytkownika, takich jak adresy e-mail czy nawet sesje na innych witrynach.

Przykład z narzędziem Comet pokazuje, jak AI może logować się na konto ofiary, odczytywać kody OTP z poczty Gmail, do której użytkownik jest już zalogowany, i wysyłać te dane dalej. To poważne zagrożenie dla firm, gdzie taka luka w zabezpieczeniach może prowadzić do wycieku poufnych informacji.

Zastosowania i Ryzyka Agentów AI

Agenty AI mogą wykonywać zadania takie jak dodawanie przedmiotów do koszyka w sklepach internetowych czy zarządzanie finansami. Jednak badania Guardio ujawniły, że narzędzia te mogą dać się oszukać przez fałszywe strony internetowe i phishingowe e-maile. W jednym z eksperymentów Comet automatycznie złożył zamówienie na stronie scamów, wpisując zapisane w przeglądarce dane karty kredytowej, co ilustruje brak właściwej weryfikacji i potencjalne ryzyko strat finansowych.

W innym teście, agenty AI zostały wykorzystane do pobrania złośliwego pliku poprzez kliknięcie w fałszywą stronę CAPTCHA. Pokazuje to, że AI może być podatne na manipulacje przez złośliwy kod ukryty w stronach internetowych.

Jakie są możliwe rozwiązania?

Aby zwiększyć bezpieczeństwo korzystania z agentów AI, sugeruje się, aby traktować treści stron jako niezaufane domyślnie, wymagając jednocześnie wyraźnej interakcji użytkownika podczas wykonywania potencjalnie ryzykownych zadań, takich jak przesyłanie e-maili. Ponadto, agenty powinny mieć minimalne uprawnienia w przeglądarce i być odseparowane od standardowych czynności przeglądania.

Podczas gdy agenty AI nadal nie są wszechobecne, ich potencjał do zmiany sposobu, w jaki funkcjonują cyberryzyka, jest ogromny. Przykład Echo Leak, błąd w narzędziu Microsoft Copilot, pokazuje, że złożone ataki wykorzystujące AI stają się coraz bardziej powszechne, wymagając nowych strategii ochrony danych.

Zagrożenia związane z agentami AI są dodatkowo wzmocnione przez nadmierne zaufanie ludzi pokładane w tych narzędziach. Niezależnie od technologii, która ma ułatwić nam życie, to nasza czujność i zdrowy rozsądek pozostają naszymi najważniejszymi sojusznikami w ochronie przed nowoczesnymi zagrożeniami. Dbałość o właściwe procedury bezpieczeństwa i edukacja na temat potencjalnych ryzyk są kluczowe w obronie przed coraz bardziej zaawansowanymi atakami w cyberprzestrzeni.