• Technika
  • Elektrické zařízení
  • Materiálový průmysl
  • Digitální život
  • Zásady ochrany osobních údajů
  • Ó jméno
Umístění: Domov / Technika / Vznikající definice: Zachycení podstaty právního základu technologie Artificial IntelligenceBlog Technology

Vznikající definice: Zachycení podstaty právního základu technologie Artificial IntelligenceBlog Technology

techserving |
764

Lehce modré velryby ve vašich slzách

Jaký je rozdíl mezi slzou a oceánem? Tato otázka se může zdát směšná, ale oceány a slzy mají společného více, než by se na první pohled mohlo zdát. Obě jsou z velké části složeny ze slané vody, v obou žijí tvorové (v případě slziček drobné mikroorganismy), průměrná teplota slzy a oceánu je pohodlně v rozmezí, kdy je voda kapalná. Skutečný rozdíl je v objemu – ale přidejte 1024 (pro nematematicky založené, je to jednička s dvaceti čtyřmi nulami za ní, neboli 1 000 000 000 000 000 000 000 000) slz dohromady a máte všechny oceány na Zemi .

To ilustruje pravdu o vznikajících vlastnostech. V určitém okamžiku více přestává být jen více stejného a stává se něčím kvalitativně odlišným. Objevují se vlastnosti, které nebyly v menších sbírkách patrné. Jedna slza je sotva patrná. Pár stovek je mokrý kapesník na konci ‚uplakaného‘ filmu. Přílivy, dramatická pobřeží, vlny, na kterých můžete surfovat, a stanoviště, která mohou podporovat vše od arktických tučňáků po tropické korály, se objevují, když se posouváte na stupnici velikosti od slzy k oceánu.

Bity, bajty a yottabajty.

Stejný fenomén vznikajících vlastností platí také v informatice. Cesta od nejranějších ventilových počítačů velikosti místnosti ze 40. let k dnešnímu plně propojenému světu to ilustruje. Dnes každý nosí v kapse síťový superpočítač – který se pak používá pro kritické úkoly, jako je kontrola sociálních sítí nebo rezervace rozvozu jídla. Málokterá z těchto aktivit by byla zřejmá každému, kdo uvažuje o Colossu v Bletchley Parku v roce 1944, a moderní propojený svět je zcela jistě vynořující se vlastnost, která by nebyla zřejmá od jednoho tranzistoru k miliardám.

Mnoho principů, které jsou základem dnešních špičkových systémů umělé inteligence, má své kořeny na samém úsvitu revoluce elektronických počítačů ve 40. a 50. letech. I když bychom si mohli myslet, že systémy založené na neuronových sítích jsou současným stavem techniky v oblasti strojového učení, původ dnešních systémů lze vysledovat zpět k perceptronu, který byl vyvinut na konci padesátých let. Toto zařízení demonstrovalo záhadné efekty vyplývající z několika jednoduchých pravidel a se vstupem pouhých 20 x 20 fotodiod jej bylo možné naučit rozpoznávat jednoduché sady obrázků – například obdélník vs. ovál.

Pokud by tyto první perceptrony měly pouhých 400 „trénovatelných“ parametrů (20 x 20), dnešní nejmodernější systémy zpracování přirozeného jazyka by mohly mít 175 miliard nebo více parametrů – tedy o devět řádů větší. V jejich srdci jsou jednotlivé umělé „neurony“, které se používají v neuronových sítích, jednoduché – několik vstupů připojených k neuronu. Každému připojení vstupu je přiřazena váha. Matematicky se vstupní hodnota vynásobí hmotností. Neuron pak sečte všechny výsledky násobení a výsledek určí úroveň aktivace neuronu (často poté, co byl výsledek normalizován, aby se vešel do určitého aktivačního rozsahu).

V izolaci je jeden neuron zcela předvídatelný a srozumitelný. Neexistují žádné zjevné problémy se zaujatostí nebo etikou. Žádný z různých potenciálních nekalostí, kterými se zabývají různé bílé knihy a návrhy předpisů o AI, se neprojevuje.

Potenciál pro tyto efekty vytvářejí vznikající vlastnosti vyplývající ze škálování z jednoho neuronu na stovky miliard.

Otázka definice

Právníci milují definici. Poskytují iluzi jistoty, přestože téměř každé slovo má vícenásobný význam. Předložte dva soudce se stejnou definicí v případu, který změní jeho význam, a i ten nejzřejmější křišťálově čistý návrh se rozpadne na nejednoznačnost a protiargumenty. Navzdory tomu jsou definice v legislativě i ve smlouvách kriticky důležité a vymezí rozsah povinností nebo prostředí zakázaného chování.

V oblasti AI budou komentátoři často trávit čas zkoumáním zjevné nemožnosti definovat „inteligenci“, a tedy dvojí nemožnost definovat AI odkazem na inteligenci.

Ti, kteří se potýkají s definicemi ve smlouvách nebo legislativě, často zvolí buď přístup založený na technologii, účelový přístup, nebo se budou pohybovat na obou stranách.

Technologický přístup může poskytnout výhodu velmi jasného testu, zda konkrétní systém je nebo není zahrnut do definice. Například „AI znamená jakýkoli systém využívající neuronovou síť“ může poskytnout relativní jasnost ohledně toho, které systémy jsou zachyceny, ale je zatíženo zjevnými nevýhodami. Co se stane, když se technologie posune dál? A co systémy, které vykazují neplechy, které chcete regulovat, ale které se nemusí spoléhat na příslušnou technologii? A co systémy, které mohou používat neuronové sítě jednoduchým nebo neškodným způsobem a na které nehodláte uvalovat povinnosti, které se týkají definice?

Účelné přístupy se obvykle zaměřují na případ použití systému, často odkazem na dovednosti, které byly dříve vyhrazeny lidem, nebo odkazem na schopnost systému „učit se“.

První (náhrada lidí) předpokládá, že nahrazení člověka je buď absolutní, nebo zvláště relevantní. V mnoha případech mohou relativně jednoduché technologie používané v kombinaci umožnit jednomu zaměstnanci vykonávat práci, kterou dříve vykonávalo několik. Zejména když jsou úkoly restrukturalizovány tak, aby zahrnovaly „samoobslužný“ prvek, jakákoli definice, která zapne stroje vykonávající úkoly dříve vyhrazené lidem, riskuje, že zachytí technologie tak banální, jako jsou bankomaty nebo samoobslužné systémy v supermarketech. Tyto systémy mohly nahradit bankovní pokladny a pokladní úředníky, ale jen málo z nás by je považovalo za AI hodné zvláštní kontroly nebo regulace.

To druhé (schopnost učit se) odhaluje omyl v populárním myšlení o systémech umělé inteligence. Zatímco se systémy mohou učit během tréninkové fáze, systémy nasazené v produkčních prostředích mají tendenci být v pevném stavu, aby bylo možné odvodit, s novými verzemi z dodatečného školení, které jsou zaváděny pouze periodicky (a pak v podobně pevném stavu). Jakékoli systémy nasazené pro vyvozování by samy o sobě neměly kapacitu se učit, a proto by chyběly v definici, která se zaměřovala čistě na tuto kvalitu.

Přesně tyto výzvy jsou obsaženy v definici systému umělé inteligence v posledním návrhu nařízení EU o umělé inteligenci k datu sepsání této zprávy. Aktualizovaná verze kompromisního textu zveřejněného Evropskou radou v listopadu 2021 zní:

„systém umělé inteligence“ (AI systém) znamená systém, který

Obsah přílohy 1 se seznamem technik a přístupů zůstává v původním návrhu:

(a) Přístupy strojového učení, včetně učení pod dohledem, bez dozoru a posilování, využívající širokou škálu metod včetně hlubokého učení;

(b) Logické a znalostní přístupy, včetně reprezentace znalostí, induktivního (logického) programování, znalostních bází, inferenčních a deduktivních motorů, (symbolického) uvažování a expertních systémů;

(c) Statistické přístupy, Bayesovský odhad, vyhledávání a optimalizační metody.

Odkaz této definice na technologie nebo techniky uvedené v příloze 1 šíří síť, aby se pokusila tuto definici prosadit do budoucna. To povede k tomu, že za „systémy umělé inteligence“ bude považována velmi široká třída systémů, což by zase zachytilo provozovatele mnoha stávajících systémů, které nevykazují a nemohou vykazovat žádnou z potenciálně problematických emergentních vlastností, pro jejichž ovládání je regulace primárně navržena. V důsledku toho (a za předpokladu, že něco podobného této definici zůstane i ve verzi nařízení, které je uzákoněno), regulační zátěž a související náklady na dodržování budou dopadat na mnohem širší škálu systémů a operátorů, než je nezbytně nutné.

Nová alternativa

V ideálním případě by jakákoli definice umělé inteligence měla být přiměřeně jasná, technologicky agnostická a měla by zachycovat ty systémy, které by mohly vykazovat příslušná neplechu, a přitom nerozhazovat síť příliš široce a ukládat povinnosti těm, které nepředstavují žádné riziko.

Autoři navrhují, aby se definice zaměřovaly na vznikající vlastnosti složitosti a neočekávané chování, které by mohlo vést, spíše než na nějakou konkrétní technologii nebo účel.

Zvažte následující příklad:

Systém AI“ je jakýkoli systém pro automatizované zpracování dat nebo rozhodování:

Tato definice se zaměřuje na myšlenku, že neplechy, které mají být primárně kontrolovány prostřednictvím jakýchkoli povinností souvisejících se systémy AI, jsou ty, které vzniknou neočekávaně.

Jakýkoli provozovatel využívající systém k záměrnému provádění činnosti, která je zaujatá, diskriminační, nedůvěryhodná nebo podvodná, by již ze zákona nesl odpovědnost za takové předpojaté nebo hanebné chování, bez ohledu na to, zda zahrnovalo jakýkoli systém umělé inteligence. Nuance systémů umělé inteligence spočívá v tom, že takové chování nemusí být zamýšleno, ale (pokud systém není dobře navržen a monitorován) se přesto může projevit.

Při použití této definice by provozovatel, který záměrně nastavil systém jako diskriminační, nemusel být zahrnut do této definice, ale byl by zahrnut do stávající legislativy, která řídí příslušné chování. V rozsahu, v jakém jakékoli relevantní trestné činy vyžadovaly úmysl viny (mens rea pro ty, kteří dávají přednost latině), by takový úmysl v takovém případě zjevně existoval.

Nicméně operátor, který nastavil systém, který vykazoval neočekávané zkreslení nebo který příležitostně a nepředvídatelně produkoval nesprávné výsledky, by byl touto novou definicí chycen. Jakékoli kontroly aplikované v doprovodné legislativě využívající tuto definici by proto zachytily ty systémy, které by z těchto kontrol mohly mít prospěch. Příklady relevantních kontrol operátorů mohou zahrnovat:

Pro ty, kteří preferují přístup s měděným dnem na opasku a rovnátka, by mohla být definice rozšířena o třetí větev, aby konkrétně zahrnovala systémy, kde se problémové chování v systému záměrně projevilo, takže by to nebylo nutné zcela spoléhat na současné antidiskriminační zákony atd., aby bylo možné kontrolovat ty špatné aktéry, kteří používají složité systémy k antisociálním účelům.

Inteligentní regulace

Přestože představa možných alternativních definic představuje odvrácenou filozofickou výzvu, musí mít provozovatelé umělé inteligence na paměti ty definice, které se nakonec objeví v příslušné legislativě.

Z pohledu EU se zdá pravděpodobné, že nařízení EU o umělé inteligenci si zachová definici, která se přiměřeně blíží definici v současných návrzích. Stejně jako se definice „osobních údajů“ podle GDPR stala de facto standardem, definice systému umělé inteligence v nařízení EU o umělé inteligenci se proto může stát srovnávací definicí v tomto odvětví. Jiné konkurenční (a potenciálně nekompatibilní) definice budou pravděpodobně obsaženy v zákonech upravujících aspekty zavádění AI v USA, Velké Británii, Číně a jinde. V USA a možná i ve Spojeném království by zákonodárci mohli uplatňovat více odvětvový přístup a zaměřovat se na konkrétní použití umělé inteligence v konkrétních odvětvích. Tento sektorový přístup může mít za následek větší spleť definic umělé inteligence v závislosti na kontextu.

V tomto kontextu bude na regulačních orgánech, jakožto vymahatelích těchto nových pravidel, aby na legislativní definice uplatňovali svou vlastní filozofii. Opět se můžeme podívat na zkušenosti v oblasti ochrany údajů, abychom viděli, jak by to mohlo dopadnout, i když se musíme vrátit dále než k GDPR. V prvních letech poté, co byla do zákonů členských států uzákoněna směrnice o ochraně údajů z roku 1995, jsme viděli, že tehdy zcela nová definice osobních údajů byla znovu a znovu testována – Co tvoří osobní údaje? Jak snadno musel být subjekt údajů identifikovatelný? Opravdu bylo rodičům zakázáno natáčet školní betlémy? Při rozhodování o těchto otázkách se regulátoři museli řídit textem definice, ale nevyhnutelně tak odhalili svůj vlastní pohled a filozofii.

Totéž bude platit o klíčových definicích umělé inteligence v těchto nových zákonech – ačkoli vzhledem k šíři definic budou mít regulační orgány ještě větší volnost při výkladu limitů definic v souladu se svými vlastními koncepty a účely. S ohledem na to, pokud tito regulátoři věnují pozornost tomu, zda konkrétní systémy vykazují nebo nevykazují potenciálně problematické emergentní vlastnosti, mohlo by to poskytnout užitečné nasměrování tam, kde by se úsilí o prosazování mělo soustředit.

Další kroky

Pro ty, kdo chtějí využít příslib, který nabízejí nejmodernější systémy umělé inteligence v jejich organizaci, jakákoli definice navržená zákonodárci (ať už široká definice, která bude pravděpodobně přijata v EU, nebo potenciálně cílenější definice které by mohly najít přízeň jinde) se pravděpodobně bude vztahovat na tento systém tak či onak. Zaměření na zajištění potenciálně vznikajících vlastností (a negativních účinků, které by z nich mohly vyplynout) je zásadní. Připomínky vlád a navrhovaných regulačních režimů se zaměřily na vysvětlitelnost, transparentnost, důvěryhodnost a schopnost odhalit a vymýtit předsudky, které se mohou objevit. Navrhování systémů s ohledem na tyto cíle je nejlepším způsobem, jak zajistit, aby byl s vývojem předpisů přijat přístup „shoda již od návrhu“.

Obchod samozřejmě nestojí na místě a nečeká na vyřízení, implementaci a pochopení předpisů. Proto bude po celém světě v současnosti probíhat nesčetné množství komplexních činností zavádění technologií. Vzniká proto obava, že vznikající regulace by mohla překročit obchodní potřeby, produktovou mapu nebo nový obor podnikání. K vyřešení tohoto problému musí organizace vzít v úvahu potenciální nové předpisy dříve, než přijdou, aby bylo zajištěno, že budou mít obhajitelný, auditovatelný a nakonec rozumný přístup k nasazení (v kontextu jejich sektoru).