Umělá inteligence s lidskými předsudky? Už je to tak
Algoritmus s předsudky lépe odpovídá lidskému jednání. Takže pracuje více jako člověk.
Když se umělá inteligence učí od člověka
Když si Amazon uvědomil, že jeho program na vyhledávání nových zaměstnanců vybavený umělou inteligencí (AI) dává přednost mužům, rychle ho odložil k ledu. V roce 2016 se chatovací robot z dílny Microsoftu změnil během pouhých 24 hodin na sexem posedlý, neonacistický stroj.
Tyto incidenty – společně s dalšími – hrály přímo do karet těm, kdo tvrdí, že v našem každodenním životě je příliš mnoho AI, napsal v listu Les Échos Charles Cuvelliez, který přednáší na Bruselské svobodné univerzitě a je ředitelem Bruselské inženýrské školy.
Ale někteří vědci se na věci dívají z jiné perspektivy: Pokud dělá AI takové chyby, je to proto, že tomu byla naučena. To znamená, že ji také můžeme naučit, aby se těmto chybám vyhnula. Jak? Tím, že najdeme všechny předsudky obsažené v údajích, které AI dostává při svém učení.
Tyto údaje vyplývají z našich vlastních předsudků, které existují už velmi dlouhou dobu. Je snadné je najít. Zkusme se zamyslet například nad tím, jak často se v textech vyskytují ošetřovatelky a zdravotní sestry v porovnání s jejich mužskými protějšky. Jak často se o lékařích mluví jako o mužích? Je snadné odhadnout, že o počítačových vědcích se bude často mluvit v mužském rodě.
Robot rasista?
Ale to není všechno. Ví například někdo, že poměr chyb při rozpoznávání tváří dosahuje až 35 procent u žen tmavé pleti, zatímco u mužů bílé pleti je to jen 0,8 procenta?
To vše je způsobeno objemem vstupních dat, která jsou k dispozici pro "učení" AI algoritmů. Právě dostupná data jsou Achillovou patou umělé inteligence. Například sociální sítě poskytují hojný a levný zdroj dat. Ovšem kvůli přítomnosti falešných zpráv, nenávistných výlevů a všeobecně zaujatých postojů vůči menšinám a ženám, nejsou pro AI vhodná.
Experiment, který na Twitteru provedl jistý výzkumník ze Swinburneské univerzity, odhalil, že lidé vyjadřují negativní pocity podstatně častěji proti ženám ve vysokých pozicích než proti srovnatelně vysoce postaveným mužům.
Předsudky se ovšem najdou i na jiných místech. Napadlo vás někdy, proč kterákoli hlasová služba nebo zákaznická linka v call centru využívající robotické služby má uklidňující ženský hlas?
Studie prokázaly, že muži i ženy dávají přednost tomu, aby na ně mluvily ženské hlasy. Dodávají jim více jistoty, hrají na mateřskou strunu. Ovšem tyto preference mají své výjimky – mužské hlasy slyšíme radši, když potřebujeme poradit ohledně vozů nebo počítačů, a ženské ve všech mezilidských záležitostech.
Před časem výrobci inteligentních automatizovaných osobních asistentů s připojenými reproduktory upravili algoritmy tak, aby tito roboti byli méně vlídní a shovívaví vůči hrubým a urážlivým výpadům uživatelů, kteří si na nich občas vybijí svou frustraci. Smyslem tohoto kroku bylo zabránit výpadům lidí proti ženám na ulici, protože si je díky svým zkušenostem s automatizovanými asistenty příliš odlidští.
Umělá inteligence jako taková nemá stejné předsudky jako my. To my učíme stroje, aby byly neobjektivní, ovlivněné, předpojaté. Světové ekonomické fórum odhaduje, že potrvá do příštího století, než dosáhneme skutečné rovnosti pohlaví. A je možné, že v případě umělé inteligence budeme muset na rovnost pohlaví čekat ještě déle.
ČTK