Bild nicht mehr verfügbar.

Spotify ist ein Musikstreamingdienst.

Foto: REUTERS/Dado Ruvic/Illustration/File Photo

Spotify zaubert Musikfreunden jeden Montag ein Lächeln ins Gesicht. An diesem Tag schlägt der Musikstreamingdienst jedem User einen individuell zusammengestellten Mix an Songs vor. Und die Lieder treffen erstaunlich oft den Musikgeschmack des Hörers.

Warum Spotify so zielsicher aussucht, war bisher jedoch weitestgehend unklar. Eine Entwicklerin hat nun auf "Medium.com" das Geheimnis gelüftet. Demnach werden mehrere Systeme verwendet: Collaborative Filtering, Natural Language Processing (NLP) und Audioanalyse.

Collaborative Filtering

Online-Shoppern ist die Methode "Collaborative Filtering" bereits vertraut. Sie symbolisiert der Satz: "Nutzer, die dieses Produkt gekauft haben, interessierten sich auch für…". Denn genau das kann man auch auf Lieder ummünzen. Spotify analysiert das Hörverhalten aller 140 Millionen User und untersucht unter anderem, wie oft ein Lied angehört wird oder ob es auf der eigenen Playlist gespeichert wird.

Danach werden User mit größtmöglicher Übereinstimmung gesucht. Ähnelt sich der Geschmack eines Hörers mit dem eines anderen, werden dieser Person Songs der Playlist des geistigen Bruders vorgeschlagen.

Collaborative Filtering vereinfacht dargestellt.

Natural Language Processing (NLP)

Hier wird die Sprache analysiert. Nicht nur der Liedtext, sondern grundsätzlich jedes Wort im Internet, das über Lied oder Künstler hinterlassen wird. Dafür filtert Spotify Artikel und Blogs. Jeder Song erhält so Zuschreibungen, etwa wenn ein Lied besonders oft als "traurig" beschrieben wird. Am Ende folgt wieder der Vergleich: Welche Lieder und Sänger erhalten ähnliche Zuschreibungen? Wenn einem Nutzer dann Stück A gefällt, wird ihm das ähnliche B empfohlen.

Die Audioanalyse

Nona, bei Musik ist freilich auch eine Audioanalyse notwendig. Spotify untersucht dafür jedes der 30 Millionen Lieder mit maschinellem Lernen, einer Technik, die etwa bereits in der Gesichtserkennung verwendet wird: Ein künstliches Netzwerk wird mit Daten gefüttert. Statt Pixel werden eben Audiodateien durchgeackert. Rhythmus, Länge, Tempo und Lautstärke sind etwa die Parameter. So werden statt der Charakteristika eines Gesichts die Charakteristika eines Liedes eingefangen.

Am Ende steht wieder der bekannte Vergleich: Welche Lieder ähneln sich? Diese Methode hat den Vorteil, dass auch frisch erschienene Musikstücke berücksichtigt werden. Diese fallen bei den ersten beiden Vorgängen unter den Radar, weil neue Lieder oft noch zu wenig Daten für aussagekräftige Analysen hergeben.

Fortschritt

Alle drei Modelle ergänzen sich gegenseitig und bilden zusammen das Erfolgsmodell. Ein klarer Fortschritt zu früheren Zeiten. In den 2000er-Jahren haben Musikstreamingdienste Playlists noch manuell erstellen lassen. Engagierte Musikexperten trafen schlichtweg eine Auswahl. Individuelle Empfehlungen wie heute waren damit freilich nicht möglich. (red, 29.4.2019)