In einer Klage des ehemaligen NPR-Moderators David Greene wirft Google vor, seine Stimme illegal zum Trainieren seines künstlichen Intelligenzprodukts NotebookLM genutzt zu haben. Greene, der zuvor die Morning Edition von NPR moderierte und jetzt Left, Right & Center von KCRW moderiert, behauptet, dass Google seine Stimme ohne Erlaubnis extrahiert habe, um die Audiofunktionen der KI zu entwickeln.
Der Kernvorwurf
In der beim California Superior Court eingereichten Klage wird behauptet, dass Google unbefugte Aufnahmen von Greenes Stimme verwendet habe, um NotebookLM zu „entwickeln, zu trainieren und zu verfeinern“. Mit diesem KI-Tool können Benutzer Daten hochladen und Audiozusammenfassungen erstellen, einschließlich von KI erstellter Podcasts. Greene sagt, den Zuhörern sei nach der Veröffentlichung des Features Ende 2024 eine auffallende Ähnlichkeit zwischen den von der KI erzeugten Stimmen und seinen eigenen aufgefallen.
Forensische Analyse unterstützt Behauptung
Greene beauftragte ein unabhängiges Unternehmen für forensische Software, das sich auf Spracherkennung spezialisiert hat, mit der Untersuchung. Berichten zufolge ergab die Analyse ein Konfidenzniveau von 53 bis 60 %, dass seine Stimme in den NotebookLM-Trainingsdaten verwendet wurde. Dies deutet auf ein erhebliches Maß an Ähnlichkeit zwischen der Stimme der KI und Greenes eigener Stimme hin.
Google bestreitet Fehlverhalten
Google bestreitet die Vorwürfe mit der Begründung, dass die in NotebookLM verwendete Stimme die eines bezahlten professionellen Schauspielers sei. Allerdings hat das Unternehmen diesen Akteur nicht öffentlich identifiziert, was Fragen zur Transparenz aufwirft. Ein Google-Sprecher bezeichnete die Behauptungen in einer Erklärung gegenüber CNET als „haltlos“.
Warum das wichtig ist
Dieser Fall verdeutlicht die wachsende Besorgnis über das Klonen von Stimmen durch KI und den Mangel an rechtlichem Schutz für Personen, deren Stimmen ohne Zustimmung verwendet werden können. Mit der Weiterentwicklung der KI-Technologie wird die Fähigkeit, menschliche Stimmen nachzubilden, immer ausgefeilter. Dies wirft ethische und rechtliche Fragen zu Eigentum, Privatsphäre und geistigem Eigentum auf.
Die Klage könnte einen Präzedenzfall für den Umgang von KI-Unternehmen mit Sprachdaten und die möglichen Folgen einer unbefugten Nutzung schaffen. Es unterstreicht auch die Notwendigkeit klarerer Vorschriften für KI-generierte Inhalte und Stimmrechte.
Der Streit könnte Google letztendlich dazu zwingen, offenzulegen, wie es Stimmen für seine KI-Produkte beschafft, was weitreichendere Auswirkungen auf die Technologiebranche haben könnte.
