Richard Golian

Narodený roku 1995. Absolvent Univerzity Karlovej. Vedúci výkonnostného oddelenia v Mixit. 10+ rokov v marketingu postavenom na dátach.

#mojacesta #mojarodina #health #vnimanie #filozofia #digital #umelainteligencia #temnota #bezpecnost #financie #politika #slovensko

English Castellano Français

Správa predplatného Výber predplatného

RSS
Newsletter
Nové články do e-mailu
Richard Golian

Zdravím, som Richard. Na tomto blogu zdieľam myšlienky, osobné príbehy — a aj to, na čom práve pracujem. Dúfam, že vám tento článok prinesie hodnotu.

Keď sa tvoj AI agent pripojí k tímu

Kontrola prístupu, zdieľaná pamäť a roly pre AI agentov

Autor: Richard Golian

Od učenia ku kontrole prístupu

V predchádzajúcom článku som opísal stavbu AI agenta, ktorý sa učí medzi jednotlivými sessions. Agent so štruktúrovanou pamäťou, slučkou sebakorrektúry a systémom akumulácie skúseností z jednej session do druhú.

V momente, keď k nemu potrebovali prístup ďalší ľudia, problém sa úplne zmenil. Už nešlo o to, či sa agent dokáže učiť. Šlo o to, kto ho smie učiť.

Čo sa stane, keď tvoj tím získa prístup k AI agentovi

Väčšina článkov o AI agentoch sa zameriava na to, čo agent dokáže. Veľmi málo z nich hovorí o tom, čo sa stane, keď ho začne používať niekto iný ako jeho tvorca.

Postavil som Slack bota. Myšlienka bola jednoduchá: dať tímu spôsob, ako priamo komunikovať s agentom — klásť otázky, žiadať analýzy, získavať reporty. Bez terminálu. Bez kódu. Len Slack.

Fungovalo to okamžite. A vtedy sa objavil skutočný problém.

Voľný chat s AI agentom je riziko. Ak ktokoľvek v tíme môže agentovi napísať čokoľvek, tak ktokoľvek môže náhodou prepísať jeho pamäť, zmeniť jeho správanie alebo spustiť akcie, ktoré neboli zamýšľané. Agent neposudzuje autoritu. Spracováva vstupy.

Otázka nebola, či má tím mať prístup. Otázka bola: aký typ prístupu?

Kontrola prístupu na základe rolí pre AI agentov

Nakoniec som zaviedol systém rolí. Tri úrovne: administrátor, analytik, pozorovateľ.

Pozorovateľ môže čítať reporty a vidieť, čo agent produkuje. Nič viac. Žiadne príkazy, žiadny chat, žiadny vplyv na správanie.

Analytik môže viac. Môže klásť otázky. Môže spúšťať preddefinované príkazy. A — toto je dôležité — môže zapisovať do pamäte agenta. Ale iba cez explicitný príkaz, nie cez voľnú konverzáciu. Ak analytik napíše inštrukciu na zapamätanie v správnom formáte, agent si ju uloží. Ak sa ju pokúsi napísať ako bežnú správu, systém ju ignoruje.

Administrátor má neobmedzený prístup. Voľný chat, priame príkazy, zápisy do pamäte, zmeny konfigurácie.

Znie to ako štandardný model oprávnení. Ale rozlíšenie, na ktorom záleží, nie je kto môže čítať alebo písať. Je to kto môže učiť. Pretože každý záznam v pamäti mení to, čo agent vie. A to, čo agent vie, formuje každý budúci výstup.

Prečo sa pamäť AI agenta stáva zdieľanou znalostnou bázou

Toto je niečo, čo som plne nedocenil, kým som to nevidel v praxi.

V predchádzajúcom článku som opísal vrstvu štruktúrovanej pamäte — súbor, ktorý agent číta pred každým behom a ktorý obsahuje poučenia z predchádzajúcich sessions. Čo som nepovedal, je čo sa stane, keď sa tá pamäť stane zdieľanou.

V momente, keď do pamäte agenta prispieva viacero ľudí, prestáva byť osobným nástrojom. Stáva sa zdieľanou znalostnou bázou. Každý záznam ovplyvňuje každú budúcu session — nielen pre človeka, ktorý ho napísal, ale pre všetkých, ktorí s agentom interagujú.

Nekontrolovaný prístup k tejto pamäti je reálne riziko. Nie preto, že by ľudia mali zlé úmysly. Ale preto, že agent nerozlišuje medzi starostlivo premysleným metodologickým poznatkom a náhodnou poznámkou, ktorú niekto napísal bez premýšľania. K obom pristupuje ako k rovnocenným pravdám.

Prístup k pamäti iba cez príkaz pre analytikov bol kompromis. Môžeš prispievať. Ale robíš to vedome, v štruktúrovanom formáte, a je to zaznamenané.

Čo sa stane, keď sa agent pomýli v metodológii

Toto ma zaskočilo.

Čítajte ďalej:

Plný prístup k mojim myšlienkam, osobným príbehom, zisteniam a tomu, čo sa dozviem od ľudí, s ktorými sa stretávam.

Vstúpte do knižnice
alebo len tento článok

Získajte celý článok e-mailom a neváhajte odpovedať, ak o ňom chcete ďalej diskutovať.

Visa Mastercard Apple Pay Google Pay

Zhrnutie

Postavil som AI agenta s perzistentnou pamäťou a dal som tímu prístup cez Slack. Čo nasledovalo, bola nečakaná lekcia: najťažšie na nasadení AI agenta nie je urobiť ho inteligentným — je to rozhodnutie, kto ho smie učiť. Tento článok pokrýva kontrolu prístupu na základe rolí pre AI agentov, prečo sa zdieľaná pamäť stáva znalostnou bázou, a čo sa stane, keď sa agent pomýli v metodológii.
Richard Golian

Ak máte nejaké otázky alebo spätnú väzbu, pokojne mi napíšte na mail@richardgolian.com.

Newsletter

Nové články do e-mailu

Časté otázky k téme článku

Čo je kontrola prístupu na základe rolí pre AI agentov?
Kontrola prístupu na základe rolí (RBAC) pre AI agentov znamená priradiť rôzne úrovne oprávnení členom tímu podľa ich roly. V tomto článku sú opísané tri úrovne: pozorovateľ (prístup len na čítanie reportov), analytik (môže klásť otázky, spúšťať príkazy a zapisovať do pamäte agenta iba cez explicitné príkazy) a administrátor (neobmedzený prístup vrátane voľného chatu a zmien konfigurácie). Kľúčové rozlíšenie nie je kto môže agenta používať, ale kto ho môže učiť — pretože záznamy v pamäti trvalo formujú všetky budúce výstupy.
Prečo je pamäť AI agenta rizikom, keď je zdieľaná v tíme?
Keď do pamäte AI agenta môže zapisovať viacero ľudí, stáva sa zdieľanou znalostnou bázou. Každý záznam ovplyvňuje každú budúcu session pre všetkých. Riziko spočíva v tom, že agent pristupuje ku všetkým záznamom v pamäti ako k rovnocenným pravdám — nedokáže rozlíšiť medzi starostlivo premysleným metodologickým poznatkom a náhodnou poznámkou napísanou bez premýšľania. Bez kontroly prístupu môže jedna neopatrná správa potichu zmeniť správanie agenta pre celý tím.
Môžu AI agenti uviaznuť v logických chybách?
Áno. V článku agent vyprodukoval sebavedomý výsledok, ktorý bol mimo o celý rád. Keď bol opravený, akceptoval nový rámec, ale reprodukoval rovnakú štrukturálnu chybu vnútri neho — prešiel piatimi kolami opráv, kým ľudia identifikovali základný problém. AI agenti akceptujú tvoj rámec a pracujú v ňom, ale môžu v ňom uviaznuť, cykliť cez variácie rovnakej chyby bez toho, aby rozpoznali podstatný problém.
Aký je rozdiel medzi AI agentom, ktorý sa opravuje a takým, ktorý sa skutočne učí?
Sebakorrektúra prebieha v rámci jednej session — agent zachytáva chyby voči pevnej schéme. Učenie prebieha medzi sessions — každý beh zanechá stopu, ktorú ďalšia session môže využiť. V tomto článku sa agent naučil, keď metodologický nesúhlas vyriešili ľudia a správna metóda bola uložená do pamäte. Agent opravu neobjavil sám; urobili to ľudia. Ale pamäť zabezpečila, že sa lekcia preniesla do každej budúcej session.
Ako bezpečne nasadiť AI agenta pre tím?
Článok opisuje praktický prístup: postaviť rozhranie Slack bota, implementovať systém rolí (administrátor, analytik, pozorovateľ) a obmedziť zápisy do pamäte na explicitné štruktúrované príkazy namiesto voľnej konverzácie. Kľúčový poznatok je, že dať tímu prístup k AI agentovi nie je len technické nasadenie — je to organizačné rozhodnutie o tom, kto má právo formovať to, čo agent vie.
Aká je najväčšia výzva pri škálovaní AI agentov z individuálneho na tímové použitie?
Najväčšia výzva nie je technická — je organizačná. Keď agenta používa iba jeho tvorca, pamäť a správanie zostávajú konzistentné. Keď tím získa prístup, ktokoľvek môže potenciálne zmeniť to, čo agent vie, zaviesť nesprávne metodológie alebo prepísať zavedené vzorce. Článok argumentuje, že vrstva kontroly prístupu — kto môže s agentom interagovať a ako — je rovnako dôležitá ako samotný mechanizmus učenia.