
Ještě nedávno byly AI agenti pro většinu firem hlavně experiment nebo tématem z konferencí. Dnes už jsou součástí týmu. Odpovídají zákazníkům, připravují podklady pro obchod, hlídají úkoly v projektech, sahají do CRM i do interních dokumentů. A čím víc jim věříme, tím větší pravomoce jim dáváme. Nejen aby četli, ale aby i jednali. Najednou tu máme digitálního kolegu, který umí spustit proces, poslat e-mail, změnit záznam v systému a rozhoduje se podle toho, co zrovna vidí v datech a kontextu.
A v tom je jádro věci. AI agent není jen chytrý nástroj, ale nový uživatel s reálnými pravomocemi. Když narazí na špatnou instrukci v mailu nebo dokumentu, když má příliš široký přístup nebo je napojený na nezabezpečený nástroj, může udělat přesně to, co udělat nemá. Ne z úmyslu, ale z podstaty toho, jak agentické systémy pracují. Bezpečný agent nevzniká náhodou, musí být dobře navržený. Kde mu ale nastavit hranice, jak ho hlídat a co nikdy nepodcenit?
Když se ve firmách mluví o AI, mnoho lidí si stále představuje chatovací okno, do kterého se napíše dotaz a přijde odpověď. To je ale jen část příběhu. Chatboti reagují. Agenti jednají. Zásadní rozdíl je v tom, že agenti nejsou jen chytřejší vyhledávač v textu, umí si sami naplánovat postup a udělat více kroků za člověka.
V praxi to obvykle vypadá tak, že se zadá cíl (například „připravit podklady pro schůzku s klientem“) a agenti si ho rozloží na dílčí úkoly. Dohledají data, otevřou nástroje, stáhnou soubory, porovnají čísla, sepíšou shrnutí a případně pošlou výstup do konkrétního systému. Často pracují v několika iteracích a používají k tomu to, co mají k dispozici: firemní dokumenty, e-mail, CRM, kalendář, API nebo třeba vývojářské prostředí.
Více o agentních systémech najdete v našem předchozím článku: Agentní systémy: Dejte AI cíl a ona si sama najde cestu k výsledku.
AI agenti přinášejí firmám obrovskou efektivitu právě proto, že nejsou jen pasivními odpovídači. Mají autonomii, umějí používat nástroje a pracují s kontextem a daty. A každá z těchto vlastností je zároveň bezpečnostní citlivé místo. Zatímco u běžné aplikace se přesně ví, co smí a nesmí udělat, u agentů se část rozhodování přesouvá na model a na to, jak vyhodnotí situaci.
Klíčové je, že agenti často fungují jako nový typ uživatele v systému. Dostávají přístupová práva, vidí interní informace a mohou spouštět akce napříč nástroji. Tím se z nich stává multiplikátor rizik. Pokud se něco pokazí, dopad je větší než u tradičního chatbota, protože agent může udělat krok navíc. Nejen špatně poradit, ale třeba i změnit data, odeslat informaci nebo spustit proces.
Bezpečnost agentů se týká především toho, jaké pravomoci agenti mají, s jakými zdroji pracují, jaké hranice jim byly nastavené a jak se jejich chování kontroluje v provozu. Právě tahle kombinace autonomie, nástrojů a dat je důvod, proč jsou agenti bezpečnostně úplně jiná liga a proč se u nich musí přemýšlet jinak než u klasických AI chatů.
U agentů se neobjevují „jen“ staré známé problémy z kyberbezpečnosti. Vzniká nová kombinace hrozeb, které vycházejí z toho, že agenti čtou otevřený svět, rozhodují se sami a mají ruce v systémech. Tady jsou ty nejtypičtější:
Hrozby nemusí být často vidět na první pohled. Agenti fungují správně až do chvíle, kdy se v kontextu objeví něco nečekaného nebo když mají příliš volné ruce. A přesně proto je bezpečnost u agentů potřeba řešit už při návrhu, ne až po nasazení.
U agentů je bezpečnost často obětí jejich vlastního úspěchu. Nasazují se obvykle rychle. Stačí propojit model s pár nástroji a během chvíle vznikne digitální kolega, který už reálně pomáhá. Jenže právě tahle jednoduchost svádí k tomu přeskočit základní otázky. Jaká data agenti uvidí, co přesně smí udělat a jak se jejich chování bude hlídat, až poběží v provozu?
Zároveň platí, že klasické bezpečnostní postupy na agentické systémy úplně nesedí. U běžné aplikace se dá dopředu popsat, co udělá v jaké situaci. U agentů část rozhodování vzniká až za běhu podle kontextu, takže je potřeba hlídat jejich pravomoci, vstupy a způsob práce. A pokud navíc není jasné, kdo je vlastníkem agenta a kdo za něj nese odpovědnost, bezpečnost se velmi snadno odsouvá.
Bezpečný AI agent je výsledkem promyšleného návrhu, kde agenti mají jasně dané hranice. V ideálním případě přesně vědí, k jakým datům smí a nesmí, jaké nástroje mohou používat, jaké akce mohou spouštět a v jakých situacích musí finální krok potvrdit člověk. Stejně důležité je i to, že jejich chování je průběžně viditelné a kontrolované v provozu, protože agenti pracují s kontextem, který se neustále mění. Bezpečný agent je zkrátka takový, který má „ruce“ jen tam, kde je to potřeba, a pojistky všude tam, kde by mohl udělat škodu.
Etnetera Core přináší do světa AI agentů to, co v něm často chybí: schopnost udělat z nich opravdu firemní řešení. Ne experiment, který funguje jen v demo režimu, ale agenty pevně napojené na vaše systémy, data a procesy tak, aby byli užiteční, bezpeční a dlouhodobě udržitelní. Agenti jsou totiž jen tak dobří, jak dobré je jejich propojení s realitou firmy, a právě integrace je jedna z našich nejsilnějších disciplín.
Navíc víme, jak vypadá prostředí, kde se na bezpečnost nehraje „na půl“. Máme zkušenost s regulovanými doménami, kde se řeší governance, auditovatelnost a požadavky typu DORA, NIS2 nebo CRA. A protože jsme zvyklí doručovat produkční systémy se SLA, monitoringem, CI/CD i incident managementem, umíme agentické řešení udržet pod kontrolou i ve chvíli, kdy běží naplno. K tomu přidáváme multi-model a multi-provider přístup, který firmám dává svobodu, snižuje riziko vendor lock-inu a drží náklady na uzdě.
AI agenti budou brzy ještě víc rozšiřovat možnosti týmů a automatizovat rutinní kroky napříč firmou. Otázka není jestli, ale jak bezpečně je do těchto procesů zapojit. Pokud chcete mít jistotu, že vaši agenti nepřinášejí zbytečná rizika a stojí na pevných základech, pojďme to spolu projít. Ozvěte se nám na konzultaci, společně zmapujeme váš konkrétní use case a navrhneme bezpečný rámec, na kterém se dá agentické řešení dlouhodobě a s klidem rozvíjet.