Consumer Reports findet heraus, dass beliebte Voice-Cloning-Tools fehlende Sicherheitsvorkehrungen aufweisen

Mehrere beliebte Voice-Cloning-Tools auf dem Markt verfügen nicht über "bedeutende" Sicherheitsvorkehrungen, um Betrug oder Missbrauch zu verhindern, laut einer neuen Studie von Consumer Reports.

Consumer Reports untersuchte Voice-Cloning-Produkte von sechs Unternehmen - Descript, ElevenLabs, Lovo, PlayHT, Resemble AI und Speechify - auf Mechanismen, die es für bösartige Benutzer schwieriger machen könnten, die Stimme einer Person ohne deren Erlaubnis zu klonen. Die Publikation stellte fest, dass nur zwei, Descript und Resemble AI, Maßnahmen gegen Missbrauch ergriffen haben. Andere verlangten nur, dass Benutzer ein Kästchen ankreuzen und bestätigen, dass sie das gesetzliche Recht haben, eine Stimme zu klonen oder eine ähnliche Selbstbestätigung abzugeben.

Grace Gedye, Policy-Analystin bei Consumer Reports, sagte, dass KI-Voice-Cloning-Tools das Potenzial haben, Impersonationsbetrug zu "boosten", wenn angemessene Sicherheitsvorkehrungen nicht getroffen werden.

"Unsere Bewertung zeigt, dass Unternehmen grundlegende Schritte unternehmen können, um es schwieriger zu machen, die Stimme einer Person ohne deren Wissen zu klonen - aber einige Unternehmen ergreifen diese Maßnahmen nicht", sagte Gedye in einer Erklärung.