Wdrożenia AI i agentów AI w firmie jako źródła ryzyk – nowy “Insider Threat”
Wdrożenia AI i agentów AI w firmie jako źródła ryzyk – nowy “Insider Threat”
14.04.2026 | 17.00 - 20.00 | KIR SA, Rotmistrza Witolda Pileckiego 65, 02-781 Warszawa
Sztuczna inteligencja staje się fundamentalnym elementem cyfrowych ekosystemów korporacyjnych, od automatyzacji procesów biznesowych, przez obsługę klienta, aż po zarządzanie bezpieczeństwem. Jednak wraz z rosnącą integracją modeli AI i systemów uczenia maszynowego pojawia się nowe spektrum ryzyk, które dotychczas nie mieściły się w klasycznych ramach cyberzagrożeń. Modele generatywne i agenci autonomiczni mogą działać w sposób trudny do przewidzenia, podejmując decyzje oparte na błędnych danych, manipulacjach lub intencjonalnie wprowadzonych „prompt injections”. Co więcej, ich integracja z systemami firmowymi otwiera potencjalne wektory ataku umożliwiające eskalację uprawnień czy nieautoryzowany dostęp do krytycznych informacji. Dla CISO oznacza to konieczność redefinicji strategii zarządzania ryzykiem oraz włączenia AI do obszaru ochrony tożsamości i zaufania wewnętrznego.
AI jako insider threat: ryzyka i strategie mitigacji w erze agentów AI
AI już jest insiderem - jak bigtech zarządza ryzykiem AI i agentów? AI przestaje być tylko narzędziem - zaczyna działać jak insider: ma dostęp, uprawnienia i zdolność do autonomicznych decyzji. Pokażę, jak bigtech podchodzi do zarządzania ryzykiem AI i agentów oraz gdzie tradycyjne modele bezpieczeństwa przestają wystarczać.
Na konkretnych przykładach omówimy, jak zabezpieczać systemy AI przed nadużyciami oraz jak budować mechanizmy kontroli i detekcji dostosowane do środowisk opartych o modele.
Debata błyskawiczna poświęcona będzie kluczowym wyzwaniom ryzyka AI. Paneliści omówią, które zagrożenia mają charakter jakościowo nowy, a które jedynie zwiększają skalę znanych problemów, gdzie dziś powstają największe luki ryzyka, w środowiskach enterprise czy w niekontrolowanym użyciu narzędzi publicznych oraz jakie wskaźniki, wymagania i granice należy przyjąć dla AI w kontekście danych, agentów i procesów krytycznych.