Der langjährige NPR-Journalist David Greene hat eine Klage gegen Google eingereicht und behauptet, dass eine KI-generierte Stimme im NotebookLM-Tool des Unternehmens eine direkte Nachahmung seiner eigenen sei. Der Streit dreht sich um eine männliche Podcast-Stimme, die in den KI-gestützten Funktionen von NotebookLM verwendet wird und von der Greene behauptet, sie reproduziere seine charakteristischen Sprechmuster, einschließlich Kadenz, Betonung und gewohnheitsmäßiger Verwendung von Füllwörtern wie „äh“.
Die Behauptung und ihre Auswirkungen
Greene wurde zum ersten Mal auf das Problem aufmerksam, als Zuhörer, Kollegen und Familienmitglieder sich meldeten und die auffällige Ähnlichkeit zwischen seiner Stimme und der von der KI erzeugten Stimme bemerkten. Dies wirft wichtige Fragen zu geistigen Eigentumsrechten im Zeitalter der KI auf, insbesondere im Hinblick auf die unbefugte Verwendung der Stimmunterschrift einer Person. Während Google behauptet, dass es sich bei der Stimme um die eines bezahlten Schauspielers handele, argumentiert Greene, dass die Ähnlichkeit zu präzise sei, um zufällig zu sein.
Googles Antwort
Google hat die Behauptung öffentlich zurückgewiesen und erklärt, dass die fragliche Stimme von einem professionellen Synchronsprecher stammte. Der Unternehmenssprecher besteht darauf, dass kein direktes Sampling oder eine Nachbildung von Greenes Stimme stattgefunden habe. Angesichts der fortgeschrittenen Möglichkeiten des KI-Stimmenklonens besteht jedoch weiterhin Skepsis hinsichtlich der Leichtigkeit, mit der diese Technologie missbraucht werden könnte.
Warum das wichtig ist
Diese Klage wirft ein Schlaglicht auf eine sich abzeichnende rechtliche und ethische Grenze: den Schutz individueller Stimmidentitäten im Zeitalter synthetischer Medien. Da KI-Tools immer ausgefeilter werden, wächst die Fähigkeit, menschliche Stimmen überzeugend nachzuahmen, was möglicherweise zu Fällen von Identitätsdiebstahl, Deepfakes und unbefugter kommerzieller Nutzung führt. Der Ausgang dieses Falles könnte einen Präzedenzfall dafür schaffen, wie Gerichte in einer zunehmend digitalen Welt mit dem Besitz und der Kontrolle der eigenen Stimme umgehen.
Der Streit unterstreicht die Notwendigkeit klarerer Regelungen für KI-generierte Inhalte, insbesondere im Hinblick auf die Verwendung menschlicher Stimmmerkmale ohne Einwilligung. Die Klage dient als Warnung, dass rechtliche Schritte erforderlich sein könnten, um sich gegen die Ausbeutung persönlicher Eigenschaften in der sich schnell entwickelnden Landschaft der künstlichen Intelligenz zu verteidigen.
