2. listopadu 2025 07:05

Rozeznáte skutečný lidský hlas od AI? Většina lidí v testu krutě selhala, podvodů přibývá

Máte pocit, že byste vždy poznali, jestli na vás mluví člověk, nebo umělá inteligence? Podle nové vědecké studie to tak už být nemusí. Hlasové deepfaky se posunuly na takovou úroveň, že jsou k nerozeznání od opravdových lidí.

Vědci z Univerzity královny Marie v Londýně zjistili něco, co ještě před pár lety znělo jako sci-fi: běžný člověk už nedokáže spolehlivě rozeznat skutečný lidský hlas od uměle vygenerovaného. „Všichni známe robotické hlasy z asistentů typu Siri nebo Alexa, které mluví nepřirozeně a strojově,“ říká hlavní autorka studie Nadine Lavanová, „jenže technologie pokročila natolik, že dnes umí vytvořit řeč, která zní naprosto lidsky.“

Jak test probíhal?

Výzkumníci pustili účastníkům nahrávky 80 různých anglicky mluvících hlasů žen i mužů s různými přízvuky. Polovinu z nahrávek namluvili skuteční lidé, druhou polovinu odborníci nahradili hlasy stvořenými umělou inteligencí. Do těch zahrnuli jak hlasy vytvořené úplně „od nuly“, až po takzvané hlasové klony neboli deepfaky; digitálně vytvořenou nahrávku, která přesvědčivě napodobuje skutečný hlas včetně intonace, emocí i dýchání.

Ten první typ, tedy hlasy zcela uměle vytvořené, lidé ještě většinou poznali; jen 41 % z nich označili chybně za lidské. Deepfaky ale působily daleko přesvědčivěji a posluchači je označili za skutečně lidské v alarmujících 58 % případů. U pravých nahrávek se trefili téměř stejně často. Jinými slovy, rozdíl prostě už většinou nejde rozeznat.

Klon za pár minut

Ještě znepokojivější je, že tyto realistické hlasy nevznikly v nějaké úžasné laboratoři se superpočítači, ale vědci použili běžně dostupný software. Na to, aby vytvořili hlas, který je k nerozeznání od lidského, stačily odborníkům jen čtyři minuty záznamu lidského hlasu a úplně běžný počítač. „Celý proces byl levný, rychlý a nevyžadoval žádné odborné znalosti,“ uvedla Lavanová.

Nebezpečí, které tohle skýtá, je obrovské. V USA už se několikrát objevily případy, kdy podvodníci nechali umělou inteligenci napodobit hlas dítěte a pak přesvědčili jeho rodiče, aby jim poslali peníze. V Austrálii s pomocí umělé inteligence zneužili hlas premiéra státu Queensland, Stevena Milese, k falešné investiční kampani s kryptoměnami.

Čtěte také: Chcete nový život v horách či u moře? Tyto země vám zaplatí, abyste se k nim přestěhovali.

Hlasové deepfaky mohou za určitých okolností obejít hlasové ověřování v bankách, vytvářet falešné rozhovory s politiky, šířit dezinformace a rozdmýchávat konflikty, a obrana proti něčemu takovému prakticky neexistuje. Vědci proto upozorňují, že bude nutné rychle zavést nové bezpečnostní protokoly i metody ověřování. „Deepfake hlas už není problém budoucnosti,“ říká Lavanová. „Je to realita, která může ohrozit naše soukromí i důvěru ve svět kolem nás.“

Podle autorky má ale technologie i pozitivní stránky. Realistické syntetické hlasy by mohly třeba hodně pomoci lidem, kteří po nemoci nebo nehodě ztratili hlas. Umožní také vylepšit přístupnost digitálních asistentů.

Zdroj: PLOS One, News.com.au, Pymntscom

Video, které jste mohli minout: Jiskry z nabíječky srší nad hlavou miminka. Čeští hasiči boří internet hrůzu nahánějícím videem

Klára Ochmanová

Klára Ochmanová

redaktorka FTV Prima

Všechny články autora

Populární filmy na Prima Zoom