” Sztuczna inteligencja wygenerowała głos dziecka, a oszuści w ten sposób próbowali wyłudzić od jego rodziców okup. Wkrótce to będzie plaga. ”
Teraz można podrobić nie tylko numer telefonu (spoofing), ale również głos dowolnej osoby. Wystarczy kilkusekundowa próbka głosu uzyskana z mediów społecznościowych lub nagrana podczas rozmowy telefonicznej. Po wpisaniu na YouTube “AI voice cloning scam” można znaleźć więcej przypadków gdzie rodzice dali się nabrać, że głos wygenerowany przez AI to był głos ich dzieci. Niektórzy z nich stracili pieniądze. Trzeba mieć to na uwadze kiedy członek rodziny lub szef prosi o przesłanie pieniędzy.
Edit:
Część osób kwestionuje w komentarzach używanie podczas oszustw głosu generowanego przez AI. Amerykańska agencja rządowa **Federal Trade Commission** wydała **20.03.2023** oficjalne ostrzeżenie w tej sprawie:
**Scammers use AI to enhance their family emergency schemes**
Żeby nie rozpoznać generowanego głosu na obecny stan ich jakości to trzeba nie mieć uszu.
Clickbait, nie ma żadnych powodów żeby twierdzić że AI było jakkolwiek użyte albo że głos był wygenerowany. Ofiara tak twierdzi bo teraz głośno o AI i woli tak powiedzieć niż “byłam zestresowana i dałam się nabrać”.
Media oczywiście lecą jakby to był fakt, mimo że nic na to nie wskazuje. (Nawet jeśli AI było użyte, to przecież ofiara o tym nie wie, więc to że tak mówi to żaden dowód).
3 comments
” Sztuczna inteligencja wygenerowała głos dziecka, a oszuści w ten sposób próbowali wyłudzić od jego rodziców okup. Wkrótce to będzie plaga. ”
Teraz można podrobić nie tylko numer telefonu (spoofing), ale również głos dowolnej osoby. Wystarczy kilkusekundowa próbka głosu uzyskana z mediów społecznościowych lub nagrana podczas rozmowy telefonicznej. Po wpisaniu na YouTube “AI voice cloning scam” można znaleźć więcej przypadków gdzie rodzice dali się nabrać, że głos wygenerowany przez AI to był głos ich dzieci. Niektórzy z nich stracili pieniądze. Trzeba mieć to na uwadze kiedy członek rodziny lub szef prosi o przesłanie pieniędzy.
Edit:
Część osób kwestionuje w komentarzach używanie podczas oszustw głosu generowanego przez AI. Amerykańska agencja rządowa **Federal Trade Commission** wydała **20.03.2023** oficjalne ostrzeżenie w tej sprawie:
**Scammers use AI to enhance their family emergency schemes**
[https://consumer.ftc.gov/consumer-alerts/2023/03/scammers-use-ai-enhance-their-family-emergency-schemes](https://consumer.ftc.gov/consumer-alerts/2023/03/scammers-use-ai-enhance-their-family-emergency-schemes)
Żeby nie rozpoznać generowanego głosu na obecny stan ich jakości to trzeba nie mieć uszu.
Clickbait, nie ma żadnych powodów żeby twierdzić że AI było jakkolwiek użyte albo że głos był wygenerowany. Ofiara tak twierdzi bo teraz głośno o AI i woli tak powiedzieć niż “byłam zestresowana i dałam się nabrać”.
Media oczywiście lecą jakby to był fakt, mimo że nic na to nie wskazuje. (Nawet jeśli AI było użyte, to przecież ofiara o tym nie wie, więc to że tak mówi to żaden dowód).