Dědictví Roberta Williamse a další milníky robotiky a AI

Vydáno:
0:00
04:47
Vydáno:
Pohled: Výklad praxe

Šachová partie mezi DeepBlue a Kasparovem, dědictví Roberta Williamse i rozvoj umělé inteligence jako zcela nové kategorie nástroje trestné činnosti. Druhý díl podcastové série Jakuba Charváta z Lawrence AI se věnuje trestněprávně relevantním milníkům vývoje AI. Na historických úspěších i tragédiích ukazuje, jak každý technologický skok sebou přináší i nové otázky trestní odpovědnosti.


Chytrý podcast Jakuba Charváta na téma:

Dědictví Roberta Williamse a další milníky robotiky a AI

Šachová partie mezi DeepBlue a Kasparovem, dědictví Roberta Williamse i rozvoj umělé inteligence jako zcela nové kategorie nástroje trestné činnosti. Druhý díl podcastové série Jakuba Charváta z Lawrence AI se věnuje trestněprávně relevantním milníkům vývoje AI. Na historických úspěších i tragédiích ukazuje, jak každý technologický skok sebou přináší i nové otázky trestní odpovědnosti.

Umělá inteligence není fenoménem jen posledních let. Naopak. Kořeny tohoto oboru sahají až do poloviny 20. století. Za jeho symbolický počátek totiž bývá považován už rok 1950, kdy Alan Turing publikoval článek Computing Machinery and Intelligence, v němž si položil známou otázku, zda stroje mohou myslet. Samotný pojem umělé inteligence pak zazněl o šest let později na Dartmouthské konferenci. A z původně abstraktní představy se AI začala přibližovat své vědecko-fantastické vizi.

Za ty desítky let technologie umělé inteligence nepřestala překvapovat. Z pohledu veřejnosti se do historie zcela jistě zapsala šachová partie mezi modelem DeepBlue a úřadujícím světovým šachovým šampionem Garrym Kasparovem. Vítězství DeepBlue široké veřejnosti poprvé ukázalo, že asymetricky, tedy pro určitou činnost vyvinuté modely umělé inteligence mohou i toho nejlepšího člověka v dané činnosti nejen porazit, ale zároveň toho mohou docílit pro člověka až nepochopitelným způsobem.

Z pohledu veřejnosti se do historie samozřejmě zapsaly i další herní úspěchy umělé inteligence. Za ten nejvýznamnější je odbornou veřejností považována výhra modelu AlphaGo nad 18násobným světovým šampiónem hry Go Lee Sedolem. Ptáte se, proč je výhra v pro nás spíše neznámé hře Go významnější než výhra v šachách? Oproti šachům je Go řádově složitější, má totiž opravdu obrovské množství kombinací, přičemž AlphaGo i Lee Sedol při této historické partii dokonce i se zcela inovativními tahy sami přišli. Zároveň, v případě AlphaGo se nebylo možné spoléhat jen na vysoký výpočetní výkon a expertízu nejlepších lidských hráčů, jako tomu bylo u DeepBlue. Klíčem k úspěchu AlphaGo byl patrně způsob jeho trénování. AlphaGo byl nejprve postaven proti amatérům, aby se naučil, jak hrají lidé, načež hrál tisíce her proti různým verzím sebe sama. O pár let později model AlphaZero dokázal porazit AlphaGo již po 30 hodinách hraní proti sobě samému formou pokus-omyl, když znal jen základní pravidla hry.

Nenechme se ale zmást. Představa, že umělá inteligence vyniká pouze v herních simulacích, zatímco v reálných a ekonomicky relevantních oblastech zaostává, by byla iluzorní. Jen během posledních pár let vznikla celá řada asymetrických modelů, které mění činnosti, jako jsou návrh čipů, psaní kódu, výzkum léčiv či predikování. Mění je tak zásadně, že srovnání umělé inteligence, o to více asymetricky vyvinuté, s inteligencí lidskou přestává dávat smysl, ač se jako referenční dodnes stále často uvádí.

A proč zmiňujeme takové, na první poslech arbitrární momenty vývoje umělé inteligence? Zmiňujeme je proto, že mají – stejně jako momenty, kterým se budeme věnovat dále – určitý trestněprávní přesah. Ukazují nám totiž, jak umělá inteligence postupně překonává člověka, kterým a pro kterého bylo trestní právo napsáno. Zároveň nám ukazují schopnosti, které na jednu stranu do budoucna znemožní přímočaré spojení následku způsobeného umělou inteligencí s původním jednáním člověka, pachatele. Jednak do budoucna možná zdůvodní zakotvení určité formy trestní odpovědnosti jí samotné.

Literatura zabývající se trestní odpovědností umělé inteligence obvykle na úvod zmiňuje první smrt způsobenou robotem a jako jeho oběť obvykle zmiňuje Kenji Uradu. Pozorný posluchač už ale možná tuší, že tak činí mylně. První obětí robota se stal totiž ještě o 2 roky dříve právě Robert Williams.

Tento dělník, zaměstnaný v továrně automobilky Ford v Michiganu, obsluhoval automatizovaný, robotizovaný systém pro manipulaci s díly. Protože se zdálo, že systém selhal, byl požádán, aby vylezl do regálového prostoru a díly tam vyzvedl ručně. To ovšem dělat neměl. Systém totiž neselhal, ve skutečnosti pokračoval, jen pomaleji a tišeji. Zásahem robotického ramena do hlavy byl Robert Williams na místě usmrcen, a patrně se tak stal první obětí robota, předchůdce umělé inteligence.

Případ byl ve své době silně medializován. Jeden z právních zástupců jeho rodiny upozornil na chybějící bezpečnostní zařízení, které by signalizovalo, že je robot v provozu. Další z právních zástupců jeho rodiny varoval před návratem k dobám průmyslové revoluce, kdy byli lidé vnímáni jako postradatelní.

Lze říci, že případy Roberta Williamse i Kenji Uradu předznamenaly široké spektrum možností, jakými může umělá inteligence zhmotněná ve fyzickém světě formou nejrůznějších robotů, ale i jiných strojů či zařízení ohrozit či porušit právní statky chráněné trestním právem. Umělá inteligence, ať už zhmotněná do těla humanoidního robota, nebo jen interagující vně webového prohlížeče, může napáchat opravdu rozsáhlé škody. Na to bychom neměli zapomínat. Jde o dědictví Roberta Williamse.

Robotům jsou technicky velmi podobná autonomní vozidla, proto se v souvislosti s riziky umělé inteligence často zmiňují jejich fatální nehody. A přestože se s jejich dalším rozšířením na našich silnicích spojují teze o bezpečnějším a plynulejším provozu, spočívající na eliminaci lidského faktoru, dosud nebylo dosaženo dostatečné technologické vyspělosti. Může se totiž stát, že řidič aktivuje autonomní režim v místě nebo čase, kde nebo kdy je jeho aktivace výrobcem zakázána, například za mlhy, nebo dojde k hardwarové či softwarové chybě, například k selhání senzorů, respektive k chybné interpretaci dat z nich. Nutno ovšem dodat, že zmíněný pojem autonomní režim dnes ještě neznamená samostatné, plně automatické řízení nevyžadující řidiče, nýbrž má blíže k asistenčním systémům.

Zatímco v případě klasických, neautonomních vozidel je odpovědnostní rovnice poměrně jasná, v případě autonomních vozidel se teprve formuje. U dnešních autonomních vozidel, které jsou na pomezí úrovní 2 a 3 standardizace SAE, do odpovědnostní rovnice vstupuje mimo jiné i uživatel, tedy řidič, který aktivoval autonomní režim. V případě technologicky vyspělejších vozidel však může uživatel nakonec úplně vypadnout, a pravděpodobně i vypadne, protože mu nebude s vozidlem umožněno jakkoliv intervenovat. Kupříkladu, dnes zaváděná robotaxi už nemají volant ani pedály.

Velmi rizikový potenciál má a kapitolou samo o sobě je technologie deepfake. Oproti dříve zmíněným případům, u nichž umělá inteligence jako součást věci ve fyzickém světě touto věcí způsobila trestněprávně relevantní následek, a to neúmyslně, deepfakes, tedy hyperrealistické obrazové anebo zvukové montáže, jsou zneužívány vědomě a cíleně k podvodným a manipulativním účelům. Technologie deepfake bývá využívána například k podvodům v politice nebo obchodě, volebním manipulacím či tvorbě tak zvané pornografie z pomsty. V případě naposledy zmíněného nás zajímá nejen samotná tvorba tak škodlivého obsahu, ale i trénování AI modelů na skutečné, avšak nekonsenzuální pornografii, či trénování modelů schopných generovat obsah připomínající dětskou pornografii.

Na masové rozšíření deepfakes v posledních letech navázalo masové rozšíření generativní AI. A s tím, jak se dostala do rukou široké veřejnosti, vznikla i nová kategorie nástroje trestné činnosti.

Ačkoliv se poskytovatelé modelů generativní AI zpravidla snaží omezit generování problematických výstupů, některé společnosti tak striktní nejsou, navíc ani není možné se každému problémovému výstupu vyvarovat, často totiž nemusí být kriminální úmysl vůbec zřejmý. Například když podvodník zadá nástroji ChatGPT, aby pro něj jakožto bankovního poradce vytvořit profesionálně znějící email, se kterým pak od oběti vyláká platební údaje nebo jiné citlivé informace, aniž by přitom přímo porušoval pravidla moderace obsahu ChatGPT, která by jinak generování nebezpečného obsahu zastavila. Obejít moderaci by bylo možné například i s instrukcí, aby vytvořil příběh, u něhož by pak jen nahradil smyšlené jméno skutečným. Pachatel by se tak dostal velmi rychle k velmi přesvědčivé dezinformaci, kterou by si navíc mohl nechat vytvořit v jakémkoliv jazyce, a to i s navazujícím obsahem.

Studie reagující na nedávný vzestup nástrojů generativní AI potvrzují jejich potenciál ke kriminálnímu využití, konkrétně zmiňují například útoky s využitím sociálního inženýrství, phishingové útoky či vytváření škodlivého malware kódu. Těmito příklady se ale možnosti generativní AI samozřejmě nevyčerpávají, přičemž trestní právo se s tímto jako s fenoménem bude muset určitě vypořádat.

V příštím díle si společně projdeme trestní zákoník a budeme se zabývat vybranými otázkami, které rozvoj umělé inteligence v mezích platné české právní úpravy trestní odpovědnosti přináší. Na to pak navážeme modely trestní odpovědnosti za umělou inteligenci, které se snaží překlenout možné mezery a umožnit vyvození trestní odpovědnosti dle platného práva.

Pojďme si dnešní téma zopakovat na kontrolních otázkách.

Otázka první

Jaká změna trénování odlišila AlphaGo a AlphaZero od jejich šachového předchůdce?

Tým za DeepBlue spoléhal na výpočetní výkon a herní zkušenosti těch nejlepších hráčů na světě. Trénování AlphaGo ovšem kombinovalo jak hraní proti lidem, tak proti sobě samému, přičemž AlphaZero pak zvládl všechny své předchozí verze porazit už jen díky 30 hodinám hraní proti sobě samému, znal jen základní pravidla hry. A co to způsobilo? Menší předvídatelnost chování AI a zároveň i více zmatku mezi jednáním člověka a následkem způsobeným AI.

Otázka druhá

Jaké jsou nejčastější kriminální způsoby využití technologií deepfake a generativní AI?

V případě deepfake jde o podvody v politice nebo obchodě, volební manipulace či tvorbu tak zvané pornografie z pomsty. V případě generativní AI pak jde o útoky sociálního inženýrství, phishingové útoky či vytváření škodlivého kódu. Takový výčet je ale jen špičkou ledovce.

Děkujeme za vaši pozornost a budeme se těšit znovu u dalšího chytrého podcastu. Na slyšenou.