buchreport

Wie Carlsen mithilfe von KI Metadaten optimiert

Auch kreativ geprägte Verlagsarbeit kann von KI-Anwendungen profitieren. Dies ist soweit akzeptiert, aber auch gescheut als schwer greifbar und unhandlich. Wie kann KI in der Verlagspraxis funktionieren und kalkulierbaren Nutzen stiften?

Jonas Navid Al-Nemri und Michael Lemster zeigen im IT-Channel von buchreport.de einige Optionen. Im ersten Teil befassten sie sich mit KI-Assistenten als Steuerungswerkzeuge für Manuskripte und Buchprojekte. Der zweite Teil handelt von KI als Werkzeug zur dynamischen Optimierung der absatzkritischen Metadaten.

 

Jonas Navid Al-Nemri (Foto oben) ist Co-Founder und Managing-Partner bei Kladde, the creators GmbH (Freiburg), dem Unternehmen hinter Scriptbakery AI www.scriptbakery.de | Michael Lemster ist Vertriebs- und Marketingberater, Sachbuch-Autor (zuletzt „Die Grimms“) und Fachjournalist. Er betreut die Fachchannel IT-Channel und Produktion & Prozesse auf buchreport.de. (Fotos: Jürgen Gocke; Mercan Fröhlich)

Der Erfolg der TV-Serie „Queen’s Gambit“ („Damengambit“) zeigte, wie relevant Metadaten sein können. Der Start der Netflix-Serie Ende 2020 ließ die Suchanfragen rund um das Thema Schach geradezu explodieren – Suchanfragen auch nach Medien. Bücher und Produkte, die durch optimale Metadaten ausgestellt waren, hatten in diesem Boom die Nase vorn.

Produkt-Metadaten schaffen Sichtbarkeit.

Idealerweise spiegeln Metadaten einerseits den Inhalt eines Werkes wider, damit die Käufer wissen, was sie kaufen, zufriedener sind und weniger remittieren. Andererseits sollten Metadaten sich aber auch an den Suchtrends orientieren, um das Momentum des Kundeninteresses zu nutzen.

Für das Metadaten-Management im Verlag ist genau dies die Herausforderung: gut gepflegte, vollständige, aktuelle, aussagekräftige, zum Kauf animierende Metadaten.

Hier kann der Einsatz von Künstlicher Intelligenz helfen, denn Metadaten-Generierung ist ein Paradebeispiel für den produktivitätssteigernden Einsatz von KI. Das zeigt auch das gemeinsame KI-Projekt von Carlsen und Scriptbakery AI.

 

KI@Carlsen

Zielbeschreibung

Das Projekt zielt auf die Entwicklung der KI namens ANIA, die das Metadaten-Management des Hamburger Verlags unterstützen soll.

ANIA soll die Zuordnung zu den Klassifikationen Thema und BISAC bis zur letzten Hierarchieebene zuverlässig bewältigen. Auch hier stehen die oben genannten Qualitätsfaktoren

  1. Repräsentation des Inhalts
  2. Orientierung an relevanten Suchbegriffen

im Fokus der Entwicklung. Im Mittelpunkt steht auch hier die Frage: Wonach sucht die Zielgruppe aktuell und wie sucht sie danach?

Mit entscheidend für das Projekt war also die Erkenntnis, dass es sich bei Metadaten nicht um rein statische Daten handelt, sondern um Daten, die sich in einem dynamischen Prozess befinden. Ziel ist es natürlich für den Verlag, das Optimum aus den Metadaten herauszuholen. Die verfügbaren großen Sprachmodelle kamen deshalb nicht in die engere Wahl, da sie auf generalisierte bzw. die am weitesten verbreiteten Einsatzmöglichkeiten abzielen. Leider wird häufig versucht, diese großen Modelle für spezielle Use Cases zu nutzen. Dadurch verlieren diese allerdings deutlich an Präzision. Daher fiel die Entscheidung auf ein eigenes, kleines Sprachmodell, das sich durch hohe Genauigkeit und Effizienz auszeichnet. ANIA ist also maßgeschneidert, kommt mit weniger Daten aus und schont die Ressourcen.

IT-Grundlagen und Technologien der Zukunft

Mehr zum Thema IT und Digitalisierung lesen Sie im IT-Channel von buchreport und Channel-Partner Xpublisher.
Hier mehr…

 

Der konkrete Nutzen

Qualität. Ausschlaggebend für die Qualität maschineller Metadatenpflege ist die Qualität der Datenbasis. Ist der Katalog bereits gut und einheitlich gepflegt, lassen sich die Modelle leichter trainieren, die dann ein einheitliches Qualitätsniveau kontinuierlich gewährleisten.

Sind jedoch nicht ausreichend Daten vorhanden oder ist die vorliegende Qualität heterogen, kommen auch KI-Modelle irgendwann an ihre Grenzen. Ähnlich verzerrt Voreingenommenheit in den Daten, aus denen eine KI lernen muss, die Ergebnisse der Algorithmen. Blinde Flecken, Fehleinschätzungen und Vorurteile, etwa in ethnischen oder Genderfragen sind grundsätzlich eine Herausforderung in der KI-Entwicklung. Dies ist in Kinderbuch-Programmen ein besonders kritisches Hindernis auf dem Weg zur Automatisierung der Metadaten-Pflege.

Beide Probleme lassen sich aber lösen. Beispielsweise können weitere Algorithmen als Korrektive hinzugenommen werden, um eventuelle „Biases“ auszugleichen. Auch kann man Mischsysteme bereitstellen, die von Menschen überwachte und nicht überwachte Lernansätze kombinieren.

Genauigkeit und Performanz. Die Genauigkeit eines KI-Modells hängt damit auch vom technischen Ansatz, also vom Ausmaß menschlicher Überwachung beim Lernen ab.

In ersten internen Testläufen wurde bei Carlsen maschinell eine Genauigkeit von bis zu 98,7 % in der Themenerkennung erreicht. Im Vergleich dazu erreichen Menschen hier im Schnitt bis zu 95 %. Bei guter Datenlage sind intelligente Algorithmen also in der Lage, hervorragende Ergebnisse zu liefern.

Als ein weiterer Vorteil KI-basierter Metadatenpflege wurde die erzielbare Automatisierung erkannt: Ein trainiertes KI-Modell liefert auch über größte Datenbestände hinweg konstante Performance, und insbesondere bei adaptiven Modellen werden Veränderungen und Neuerungen zügig integriert, was eine Grundlage für eine stringente Metadatenstrategie darstellt.

Geschwindigkeit. Bei manueller Metadatenvergabe durch den Menschen ist neben der Qualität auch die Zeit ein Faktor. Ein durchschnittlich schneller Metadaten-Manager im Publishing bewältigt nicht mehr als 400 Datensätze im Jahr, wenn er wirklich das Optimum aus seinen Daten herausholen will. Bei Backlists von Tausenden oder Zehntausenden Titeln ist demnach jede vollmanuelle Metadatenpflege ein teures Mammutprojekt. Dies gilt sowohl für die initiale Zuordnung bei Novitäten als auch für die laufende Pflege der Metadaten des gesamten Programms.

Ein Algorithmus kann je nach Rechenleistung Metadaten in unter 200 Millisekunden zuordnen und dies, wie zuvor erwähnt, bei stets gleichbleibender Qualität. Die Zeitersparnis gegenüber der manuellen Zuordnung kommt hier also besonders zum Tragen und sorgt neben Kostenvorteilen für Wettbewerbsvorteile infolge höherer Aktualität.

Die Backlist in Schwung bringen

Metadatenpflege mit KI ist nicht nur für Novitäten und den Titelaufbau interessant, sondern bietet auch für die Backlist ein großes Potenzial. Remittenden sind gefürchtet, denn sie sind eines der kostenintensivsten Risiken für Verlage und Buchhandel und können – je nach Warenwert – den Totalverlust bedeuten.

Die Möglichkeit, KI-gestützt Suchtrends nahezu in Echtzeit zu beobachten und mit der Backlist abzugleichen, erlaubt es, die Metadaten dynamisch anzupassen. So können Verlage schnell auf Änderungen im Such- und Kaufverhalten reagieren und saisonale oder ad hoc auftretende Trends beim Metadatenmanagement berücksichtigen. Damit verlängern sie den Lebenszyklus ihrer Backlisttitel und zeigen ihren Zielgruppen, dass sie aktuell sind.

 

Ausblick

„Thema“ und BISAC sind natürlich nur ein kleiner Teil der Metadaten-Attribute, bei deren Optimierung und Einsatz KI unterstützen kann. Das Management dessen, was wir in der Branche als Metadaten für relevant halten, wird sich in Zukunft vollständig automatisieren lassen: von der Klappentexterstellung und Zielgruppenbeschreibung über Lesealtersempfehlungen bis hin zur optimierten Bepreisung.

Darüber hinaus ermöglicht es KI aber auch, Attribute im Metadatensatz zu erfassen, die bisher schwer messbar waren, wie beispielsweise Lesezeiten oder Emotionen der Lesenden. Mit Künstlicher Intelligenz ist die Zukunft der Metadaten und des metadatengestützten Marketings offen.


KI-Glossar

Das Supervised Learning (dt. überwachtes Lernen) stellt diejenige Form maschinellen Lernens dar, bei der eine KI von Daten lernt, die bereits (zum Beispiel durch Experten) annotiert wurden. Damit sind die Zielwerte relativ eindeutig bestimmbar und die Präzision des Modells ist anhand der Übereinstimmung mit den Lerndaten messbar.

Beim Unsupervised Learning (dt. unüberwachtes Lernen) lernen neuronale Netze eigenständig, ohne auf annotierte Daten oder Zielwerte zurückgreifen zu können. Hier wird also versucht, einen eigenen Zugang zu entwickeln.

Als Mischform ließe sich das sogenannte Selfsupervised Learning (dt. selbstüberwachtes Lernen) bezeichnen, bei dem die KI-eigenen Ergebnisse anhand eines kleinen, annotierten Datensatzes geprüft und ggf. angepasst werden.

Natural Language Understanding (NLU), also das maschinelle Verstehen menschlicher Sprache, und Natural Language Generation (NLG), also die maschinelle Produktion menschlicher Sprache, sind Teilbereiche des Natural Language Processing (NLP), einer der zentralen Domänen im Bereich Künstlicher Intelligenz.

Sentiment-Analyse erkennt die Stimmung eines Textes als positiv (+1) oder negativ (–1). Die Emotionsanalyse geht tiefer und erkennt menschliche Emotionen, die in einem Text vorhanden sind oder im Rezipienten ausgelöst werden.

Kommentare

Kommentar hinterlassen zu "Wie Carlsen mithilfe von KI Metadaten optimiert"

Hinterlassen Sie einen Kommentar

Mit dem Abschicken des Kommentars erklären Sie sich damit einverstanden, dass Ihre Daten elektronisch gespeichert werden. Diese Einverständniserklärung können Sie jederzeit gegenüber der Harenberg Kommunikation Verlags- und Medien-GmbH & Co. KG widerrufen. Weitere Informationen finden Sie in unseren Datenschutz-Richtlinien

E-Mail Adresse wird nicht veröffentlicht.


*

Themen-Kanäle

Webinar-Mediathek

Geballtes Fachwissen

Auf pubiz.de finden Fach- und Führungskräfte aus der Buch- und Medienbranche passgenau auf Ihre Bedürfnisse zugeschnittene Live-Webinare, Video-Kurse, Praxisbeiträge, Interviews und Anleitungen.

SPIEGEL-Bestseller

Veranstaltungen

Es gibt derzeit keine bevorstehenden Veranstaltungen.

Neueste Kommentare

größte Buchhandlungen