• Technika
  • Elektrické zařízení
  • Materiálový průmysl
  • Digitální život
  • Zásady ochrany osobních údajů
  • Ó jméno
Umístění: Domov / Technika / Jak USA plánují řídit umělou inteligenci

Jak USA plánují řídit umělou inteligenci

techserving |
742

Vzhledem k tomu, že zákon EU o umělé inteligenci (AI) prochází několika koly revizí ze strany poslanců Evropského parlamentu, v USA nepříliš známá organizace v tichosti vypracovává vlastní pokyny, které pomohou usměrnit vývoj taková slibná a přitom nebezpečná technologie.

V březnu vydal Národní institut pro standardy a technologie (NIST) se sídlem v Marylandu první návrh svého rámce řízení rizik AI, který představuje velmi odlišnou vizi od EU.

Práci vede Elham Tabassi, výzkumník počítačového vidění, který se k organizaci připojil před více než 20 lety. Potom: „Postavili jsme systémy [AI] jen proto, že jsme mohli,“ řekla. "Teď se ptáme sami sebe: měli bychom?"

Zatímco zákon EU o AI je legislativou, rámec NIST bude zcela dobrovolný. NIST, jak Tabassi opakovaně zdůrazňuje, není regulátor. Společnost NIST, založená na začátku 20. století, místo toho vytváří standardy a systémy měření pro technologie od atomových hodin po nanomateriály, a byla požádána Kongresem USA, aby v roce 2020 vypracoval pokyny pro umělou inteligenci.

Na rozdíl od zákona EU o umělé inteligenci NIST nevymezuje žádné konkrétní použití umělé inteligence jako nepovolené (zákon by naopak mohl úřadům zakázat rozpoznávání obličejů na veřejných prostranstvích, i když s výjimkami pro věci, jako je terorismus).

A jak pokyny NIST suše poznamenávají, jeho rámec „nepředepisuje prahové hodnoty rizika ani [rizikové] hodnoty“. Jinými slovy, je na vývojářích, aby zvážili rizika a výhody plynoucí z uvedení svých systémů AI do světa.

"Na konci dne opravdu věříme, že neexistuje jedna velikost pro všechny," řekl Tabassi. „Je na vlastníkovi aplikace, vývojáři […], kdo má na starosti, aby provedl analýzu nákladů a přínosů a rozhodl.“ Rozpoznání obličeje policií je, řekněme, mnohem riskantnější vyhlídka než jeho použití k odemknutí smartphonu, tvrdí. Vzhledem k tomu nedává zákaz konkrétního případu použití smysl (ačkoli nedávné kompromisní texty k zákonu EU o umělé inteligenci naznačují, že mohou existovat výjimky pro odemykání telefonů).

Zákon EU o umělé inteligenci opakovaně zdůrazňuje, že nad umělou inteligencí musí existovat konečný „lidský dohled“. Pokyny NIST to nezmiňují, protože to, zda je to potřeba nebo ne, závisí na tom, jak se používá AI. „Skutečně věříme, že AI je o kontextu a ‚AI bez člověka‘ moc neznamená,“ řekl Tabassi. NIST se nesnaží regulovat na takovou úroveň detailů, kdy přesně by měl být člověk ve smyčce, zdůrazňuje.

Kulturní revoluce

Namísto tvrdých červených právních čar v písku NIST doufá, že vyvolá dobrovolnou revoluci v kultuře vývoje umělé inteligence. Chce to, aby tvůrci umělé inteligence přemýšleli o nebezpečích a úskalích svých inteligentních systémů, než je vypustí na veřejnost. "Řízení rizik by nemělo být až dodatečným nápadem," řekl Tabassi.

V praxi by pokyny NIST mohly znamenat, že americké technologické společnosti se při vytváření svých produktů AI podrobí poměrně velkému vnějšímu dohledu. NIST doporučuje, aby „nezávislá třetí strana“ nebo „odborníci, kteří nesloužili jako přední vývojáři“, zvážili výhody a nevýhody systému umělé inteligence a konzultovali „stakeholdery“ a „dotčené komunity“.

Podobné nápady se již v tomto odvětví začínají prosazovat. Praxe „červeného týmu“, kdy společnost otevře svůj systém simulovanému útoku, aby prozkoumala zranitelnosti, již použili někteří významní vývojáři AI, řekl Sebastien Krier, odborník na politiku AI ze Stanfordské univerzity. "Neřekl bych, že ještě existuje norma, ale stále více se používá."

NIST také chce, aby vývojáři umělé inteligence zajistili „diverzitu pracovní síly“, aby umělá inteligence fungovala pro každého, nejen pro úzkou podskupinu uživatelů.

„Nemělo by být na lidech, kteří vyvíjejí technologii, nebo pouze na nich, aby přemýšleli o důsledcích a dopadech,“ řekl Tabassi. "Proto potřebujete velmi různorodou skupinu lidí."

To neznamená jen demograficky a etnicky různorodé týmy, zdůraznila. Lidé vytvářející systémy umělé inteligence musí mít také disciplinární rozmanitost, včetně například sociologů, kognitivních vědců a psychologů. Umělou inteligenci nelze nechat jen na pokoji plném absolventů informatiky.

A pokud se vývojář rozhodne, že systém umělé inteligence má více výhod než rizik, musí zdokumentovat, jak k tomuto rozhodnutí dospěl, říkají pokyny NIST. Zatím není jasné, zda budou tyto dokumenty zveřejněny.

Střet zájmů

Jak plánuje umělá inteligence USA

To ukazuje na jeden zřejmý konflikt zájmů, kdy vývojáři AI mohou rozhodnout, zda jsou jejich systémy příliš riskantní. Nový nástroj umělé inteligence může technologické společnosti umožnit sklízet obrovské zisky a zároveň způsobit nevýslovné škody v reálném světě, jak to dnes pravděpodobně dělají platformy sociálních médií. Tento nesoulad pobídek není prozatím přímo řešen v rámci NIST, i když externí odborníci by mohli poskytnout širší společnosti hlas při rozhodování.

"Nemyslíme si, že je naším úkolem říkat, jaká je přijatelná úroveň rizik, jaká je přijatelná úroveň výhod," řekl Tabassi. "Naším úkolem je poskytnout dostatečné vodítko, aby toto rozhodnutí mohlo být učiněno informovaným způsobem."

Existuje spousta návrhů, jak tento střet zájmů zmírnit. Jedním z nich je požadovat, aby systémy AI byly „loajální“: to znamená, aby skutečně sloužily uživatelům, spíše než společnostem, které je vytvářejí, nebo nějakému jinému vnějšímu zájmu.

„Existuje spousta systémů, které nejsou transparentní ohledně toho, s jejichž pobídkami jsou spojeny,“ řekl Carlos Ignacio Gutierrez, výzkumník v oblasti AI v americkém Future of Life Institute, který usiluje o snížení rizika. nově vznikajících technologií.

Například navigační nástroj může mít dohodu se společností rychlého občerstvení, takže vaši trasu velmi mírně odkloní, aby vás nasměroval blíže k hamburgeru. A co je vážnější, aplikace pro lékařskou diagnostiku by mohla být naprogramována tak, aby šetřila peníze zdravotní pojišťovny, místo aby dělala to, co je pro pacienta nejlepší.

„Celá myšlenka loajality spočívá v tom, že existuje transparentnost mezi tím, kde jsou tyto pobídky sladěny,“ řekl Gutierrez. Ale v současné době tento koncept není zakotven ani v pokynech NIST, ani v zákonu EU o AI, poznamenává.

Umělá obecná inteligence

Směrnice NIST také nereagují přímo na obavy z vytvoření takzvané umělé obecné inteligence (AGI): agenta schopného všeho, co člověk dokáže, který, pokud není chytře přizpůsoben lidským cílům, by se mohl vymknout naše kontrola a podle názoru řady významných osobností AI a dalších postav včetně Elona Muska ohrožují existenci lidstva jako takového.

„I když je pravděpodobnost katastrofických událostí nízká, jejich potenciální dopad si zasluhuje značnou pozornost,“ varuje Centrum pro správu umělé inteligence se sídlem v Oxfordu ve svém nedávném příspěvku NIST ohledně svých pokynů. Spojené království, ačkoli zaujímá k umělé inteligenci obecně postoj laissez faire, uznalo ve své loňské strategii umělé inteligence „dlouhodobé riziko nepřizpůsobené umělé obecné inteligence“.

AGI „není problém na příštích pět let, možná deset let,“ řekl Tabassi. „Ale je čas si to naplánovat a pochopit to teď? Určitě." V USA místo NIST prozkoumává starosti kolem AGI Národní poradní výbor pro umělou inteligenci, prezidentský poradní orgán, který minulý měsíc jmenoval své první členy.

Budování důvěry

Tabassi připouští, že NIST neví, které společnosti využijí její rámec a do jaké míry. „Ne, na to nemáme žádný vliv,“ řekla.

Předchozí rámce NIST týkající se soukromí a kybernetické bezpečnosti však společnosti přijaly, přestože byly také dobrovolné. Kybernetické směrnice se kodifikovaly v rámci federálních agentur USA a poté se rozšířily do soukromého sektoru. "Skutečně dobří vědci, které zde máme, nám umožňují budovat důvěru v průmyslu," řekl Tabassi.

Mnoho největších amerických technologických firem, jako je Google, IBM, Adobe a Microsoft, předložilo doporučení nebo se účastnilo workshopů NIST, aby pomohly vytvořit pokyny.

Dobrovolné nebo „měkké“ rámce, jako je NIST, přijmou průmysl, když společnosti vědí, že přísné zákony, které je podporují, se chystají, nebo budou, pokud své jednání neuklidí, řekl Gutierrez.

Ale na federální úrovni v USA neexistuje v blízké budoucnosti žádná vyhlídka na tvrdý zákon, ačkoli některé státy jako Texas a Illinois vytvořily legislativu kontrolující rozpoznávání obličeje.

"NIST tedy bude muset doufat, že společnosti shledají, že je v jejich zájmu přijmout rámec," řekl Gutierrez. "Je to signál pro trh, který říká, hej, snažím se být zodpovědný."

A co víc, poznamenal, že pokud technologická společnost používá rámec, mohlo by to omezit náhradu škody udělenou u soudu, pokud a když je společnost žalována za nefunkční AI.

A výhodou měkkého zákona NIST je jeho hbitost. První oficiální rámec by měl být zveřejněn v lednu 2023, kdy EU pravděpodobně bude mít před sebou ještě roky tahanic o vlastní legislativu týkající se umělé inteligence. „Je to první krok k tomu, aby se tento jeden způsob řízení rizik stal zákonem země [… ] ale praxe země,“ řekl Gutierrez.