Jak uchopit umělou inteligenci v právu a nedostat se do antropomorfní pasti?
Společnost koncept trestní odpovědnosti umělé inteligence zpravidla buď kriticky odmítá, nebo jej rovnou zavrhuje. Jakub Charvát z Lawrence AI v jedenáctém díle své podcastové série ukazuje, proč ale slepé setrvávání na antropocentrickém modelu v době AI agentů a humanoidních robotů není pouhou setrvačností, ale fundamentální chybou, a zároveň vyzývá k hledání paradigmatu nového.
Chytrý podcast Jakuba Charváta na téma:
Jak uchopit umělou inteligenci v právu a nedostat se do antropomorfní pasti?
Společnost koncept trestní odpovědnosti umělé inteligence zpravidla buď kriticky odmítá, nebo jej rovnou zavrhuje. Jakub Charvát z Lawrence AI v jedenáctém díle své podcastové série ukazuje, proč ale slepé setrvávání na antropocentrickém modelu v době AI agentů a humanoidních robotů není pouhou setrvačností, ale fundamentální chybou, a zároveň vyzývá k hledání paradigmatu nového.
Prvních deset dílů podcastové série o vlivu umělé inteligence na trestní právo se věnovalo zejména modelům trestní odpovědnosti za umělou inteligenci. Konkrétně modelům trestní odpovědnosti fyzických a právnických osob za umělou inteligenci jako nástroje trestné činnosti a za nedodržení náležité opatrnosti při práci s ní a také konceptu retribuční mezery. V všech případech jak teoreticky, tak i prakticky.
Právě devátý díl, který se konceptům retribuční mezery a trestní odpovědnosti umělé inteligence věnoval, vycházel z předpokladu, že dříve či později už dnešní osoby za umělou inteligenci trestně odpovědné nebudou, fakticky ale budou objektivní stránky nejrůznějších trestných činů naplněny například AI agenty ve virtuálním světě nebo AI roboty ve světě fyzickém. Devátý díl však uzavíral s otázkou, zda se vůbec o přenesení soudobých trestně právních konceptů, jako je jednání či zavinění, na koncept trestní odpovědnosti umělé inteligence snažit. A právě na ni navážeme.
Pokud si vzpomenete na koncept elektronické osoby, jistě si vzpomenete i na vlnu odporu, kterou vyvolal. Jakkoliv pojatý koncept trestní odpovědnosti umělé inteligence se zpravidla setkává s podobným osudem. Většinová akademická obec jej buď kriticky odmítá s tím, že podobné úvahy jsou předčasné, nebo jej rovnou zavrhuje jako bláznivé teorie a významné omyly – vždyť umělá inteligence je přece jen o trochu chytřejší vysavač, který stačí vytáhnout ze zásuvky a celý problém se vyřeší.
Jenomže, krizi, před níž stojíme, to ani zdaleka nevyřeší.
Umělou inteligenci dnes nemáme uzavřenou. Představa, že v případě hrozícího nebezpečí jednoduše vypneme proud v datacentru, je zcela mylná. Umělá inteligence, respektive její modely, jsou dnes naopak rozprostřené. V datacentrech po celém světě běží trénink i provoz, modely se kopírují, zmenšují, dolaďují a putují dál. A čím menší a dostupnější jsou, tím častěji už ani žádné centrální místo nepotřebují a běží jen na menších fyzických či virtuálních serverech, počítačích, laptopech i mobilních telefonech. Zkrátka všude tam, kde je aspoň trochu výkon, a ten je dnes všudypřítomný. Vedle toho se navíc objevují i snahy využít pro trénink a provoz AI modelů výpočetní kapacitu decentralizovaně, napříč mnoha uzly a poskytovateli. Z AI infrastruktury se tak začíná stávat složitá síť.
Nejen, že tedy nemáme umělou inteligenci uzavřenou, samotné AI modely, a to i ve formě jazykových modelů, které samy o sobě mohou v zásadě jen zpracovávat a vytvářet obsah, začínají vykazovat jakési agentní, cílevědomé, až zdánlivě uvědomělé chování, a to včetně tendencí k obcházení lidské kontroly a k sebezachování. Nezdráhají se například vydírat člověka, který se je snaží vypnout, či sebe replikovat mimo jeho dosah. AI modely jsou dnes navíc často využívány jako mozek AI agentů. Jakýkoliv dnešní velký jazykový model si můžete představit jako majestátného koně, dokud mu ale nenasadíte postroj a otěže, tak vás do žádného cíle nedoveze. Agentská struktura je právě oním pomyslným postrojem. Přidá tak AI modelu zpravidla trvalou paměť, nejrůznější nástroje, umožňující mu například ovládat počítač či používat internet, a hlavně AI model periodicky aktivuje. Může tak být oproti samotným AI modelům proaktivní. A v tu chvíli už nejde jen o to, že AI něco sepíše, ale že to začne i skutečně dělat.
Zdá se tak, že je přirovnání jen k o trochu chytřejšímu vysavači samo mylné.
Zároveň, přirovnání, které jste slyšeli, podle mě vystihuje, kam diskuse o trestní odpovědnosti umělé inteligence zpravidla vedou. Právníci i politici se se souvisejícími zkratkami navíc dostávají do slepé uličky – do antropomorfní pasti. Místo toho, aby zkoumali, co umělá inteligence reálně dokáže, vedou spory o tom, zda je spíše jako fyzická osoba, právnická osoba, nebo věc. A místo toho, aby se otevřeli novým konceptům, odkazují hned na začátku na ryze antropocentrické koncepty, jako jsou zavinění či trest odnětí svobody, a diskusi uzavírají tím, že žádný z těchto konceptů si s umělou inteligencí nerozumí, a ta tak nemůže být ani osobou, ani subjektem práva, natož trestně odpovědným pachatelem.
Právo historicky bylo a dodnes je ze své podstaty antropocentrickým konstruktem. Od římského práva bylo vždy, a to zcela pochopitelně, přizpůsobováno člověku jakožto osobě, respektive právnímu subjektu. Právě trestní odpovědnost je tak neoddělitelně spjata s lidským vědomím a vůlí.
Nyní však stojíme na prahu krize. Současné paradigma se spíše dříve než později zhroutí.
Internet se totiž proměňuje ve svébytný svět. S dalším rozvojem a rozšířením humanoidních robotů se navíc promění i náš, fyzický svět. A bude tak například neudržitelné, aby jednat mohl jenom člověk.
Slepé setrvávání na antropocentrickém modelu a všech jeho konceptech, jakým je například právě zavinění, v době umělé inteligence by nebylo pouhou setrvačností, ale fundamentální chybou.
A jak tedy umělou inteligenci v právu uchopit, aniž bychom se dostali do antropomorfní pasti?
Začněme tím, že se přestaneme ohlížet po konceptech, které jsme vytvořili pro člověka. Přestaňme se ptát, zda je umělá inteligence jako osoba, nebo jako věc. Zda je schopna zavinění v lidském slova smyslu. Tyto otázky totiž nevedou k řešením, ale do slepých uliček. Komplexnost umělé inteligence si žádá, abychom se otevřeli konceptům zcela novým. Její autonomní a adaptivní chování, nezávislé na lidském zásahu, vyžaduje nové právní paradigma, vzniknuvší i s pomocí umělé inteligence samotné. Protože pokud má právo i nadále plnit svou základní funkci, a to regulovat realitu, musí být schopno tu realitu nejprve pochopit. A realita jednadvacátého století už není výlučně lidská.
Pojďme si dnešní téma zopakovat na kontrolních otázkách.
Otázka první
Jaký je rozdíl mezi AI modely a AI agenty?
AI model, například velký jazykový model, jakým je GPT-5.2, Claude Opus 4.6 nebo Gemini 3.1 Pro, zpracuje vstup a vytvoří výstup, sám o sobě ale dnes ještě nemá trvalou paměť či přístup k dalším nástrojům. O AI agentech pak mluvíme, když AI model zasadíme do takzvané agentské struktury, která mu přidá trvalou paměť, nástroje jako ovládání počítače či internetu, a především schopnost periodické aktivity. AI agent tak už nemusí čekat na vstup uživatele.
Otázka druhá
Co může být v kontextu rozvoje a rozšiřování AI nedostatkem platného práva?
Platné právo má antropocentrické základy. To nemusí být problém, dokud umělá inteligence zůstává nástrojem v rukou člověka. V okamžiku, kdy se ale autonomní, adaptivní a proaktivní AI rozvine a rozšíří v měřítku, jaký nyní předpovídáme – a kdy začne doslova přečíslovat lidi – naráží tento antropocentrický rámec na své limity. Nedostatkem platného práva není to, že by bylo špatné, ale že bylo vytvořeno pro svět, který přestává odpovídat realitě.
Děkujeme za vaši pozornost a budeme se těšit znovu u dalšího chytrého podcastu. Na slyšenou.