EN PL
Analiza potencjału ataków wykorzystujących syntetycznie wygenerowane głosy na systemy biometrycznej weryfikacji mówców oraz wykrywania materiałów deepfake
 
Więcej
Ukryj
1
Politechnika Warszawska
 
 
Data publikacji: 20-05-2024
 
 
Cybersecurity and Law 2024;12(2):25-36
 
SŁOWA KLUCZOWE
STRESZCZENIE
Postęp technologiczny w dziedzinie głębokiego uczenia znacząco przyczynił się do rozwoju syntezowania głosu, umożliwił tworzenie realistycznych nagrań audio, które mogą naśladować indywidualne cechy głosów ludzkich. Chociaż ta innowacja otwiera nowe możliwości w dziedzinie technologii mowy, niesie ze sobą również poważne obawy dotyczące bezpieczeństwa, zwłaszcza w kontekście potencjalnego wykorzystania technologii deepfake do celów przestępczych. Przeprowadzone badanie koncentrowało się na ocenie wpływu syntetycznych głosów na systemy biometrycznej weryfikacji mówców w języku polskim oraz skuteczności wykrywania deepfake’ów narzędziami dostępnymi publicznie, z wykorzystaniem dwóch głównych metod generowania głosu, tj. przekształcenia tekstu na mowę oraz konwersji mowy. Jednym z głównych wniosków analizy jest potwierdzenie zdolności syntetycznych głosów do zachowania charakterystycznych cech biometrycznych i otwierania drogi przestępcom do nieautoryzowanego dostępu do zabezpieczonych systemów lub danych. To podkreśla potencjalne zagrożenia dla indywidualnych użytkowników oraz instytucji, które polegają na technologiach rozpoznawania mówcy jako metodzie uwierzytelniania i wskazuje na konieczność wdrażania modułów wykrywania ataków. Badanie ponadto pokazało, że deepfaki odnalezione w polskiej części internetu dotyczące promowania fałszywych inwestycji lub kierowane w celach dezinformacji najczęściej wykorzystują popularne i łatwo dostępne narzędzia do syntezy głosu. Badanie przyniosło również nowe spojrzenie na różnice w skuteczności metod konwersji tekstu na mowę i klonowania mowy. Okazuje się, że metody klonowania mowy mogą być bardziej skuteczne w przekazywaniu biometrycznych cech osobniczych niż metody konwersji tekstu na mowę, co stanowi szczególny problem z punktu widzenia bezpieczeństwa systemów weryfikacji. Wyniki eksperymentów podkreślają potrzebę dalszych badań i rozwoju w dziedzinie bezpieczeństwa biometrycznego, żeby skutecznie przeciwdziałać wykorzystywaniu syntetycznych głosów do nielegalnych działań. Wzrost świadomości o potencjalnych zagrożeniach i kontynuacja pracy nad ulepszaniem technologii weryfikacji mówców są ważne dla ochrony przed coraz bardziej wyrafinowanymi atakami wykorzystującymi technologię deepfake.
REFERENCJE (7)
1.
Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case, https://www.wsj.com/articles/f... [dostęp: 15.02.2024].
 
2.
Kobieta pokazała, jak złodzieje sklonowali jej głos i na Facebooku próbowali wyłudzić kod BLIK, https://natemat.pl/546320,oszu... [dostęp: 15.02.2024].
 
3.
Mai K.T., Bray S., Davies T., Griffin L.D., Warning: Humans cannot reliably detect speech deepfakes, „PLoS ONE” 2023, nr 18(8), https://doi.org/10.1371/journa... [dostęp: 12.02.2024].
 
4.
„Mom, these bad men have me”: She believes scammers cloned her daughter’s voice in a fake kidnapping, https://amp.cnn.com/cnn/2023/0... [dostęp: 15.02.2024].
 
5.
New Orleans magician says he made AI Biden robocall for aide to challenger, https://www.theguardian.com/us... [dostęp: 15.02.2024].
 
6.
Podrobiony szef InPostu zachęca do inwestycji. Po chwili zaczyna mówić w obcym języku, https://spidersweb.pl/2024/03/... [dostęp: 15.02.2024].
 
7.
Zostań inwestorem projektu Baltic Pipe? Uwaga na scam, https://demagog.org.pl/fake_ne... [dostęp: 15.02.2024].
 
ISSN:2658-1493
Journals System - logo
Scroll to top