Blog
Anastasia Linnik
Die automatisierte Content-Erstellung ist bei erfolgreichen Online-Shops und Einzelhändlern inzwischen Standard. Eine zeitgemäße Natural Language Generation-Technologie (NLG) ermöglicht es, konversionsstarke Inhalte in den unterschiedlichsten Sprachen automatisiert zu erstellen und kanalspezifisch auszurichten.
Bedingung für eine automatisierte Content-Erstellung sind strukturierte Daten bzw. die Bereitstellung entsprechender Datenmengen. Das heißt überall dort, wo eine Fülle an Daten generiert werden – etwa im Digital Commerce und Medienbereich, an der Börse oder in Berichterstattung für Sport, Wirtschaft und Wetter – kann NLG-Technologie aus Daten überzeugende, variantenreiche Texte erstellen. Technologisch gibt es im NLG-Markt zwei Hauptströme: datenbasierte Lösungen sowie End-to-End-Textgenerierung mit großen Sprachmodellen. Die Technologie entwickelt sich stetig weiter und eröffnet regelmäßig neue Möglichkeiten.
Besonders viel Dynamik entwickeln aktuell NLG-Technologien im Bereich der End-to-End-Textgenerierung. Mithilfe Künstlicher Intelligenz übernimmt die Technologie den gesamten Prozess der Content-Erstellung. Zur Textgenerierung müssen nur ein paar knappe Instruktionen oder sogenannte Prompts eingegeben werden. Die End-to-End-Technologie lernt und abstrahiert selbst und stellt automatisiert ausformulierte Texte und Formulierungen bereit. Hierbei ist GPT-3 ein besonders mächtiges Sprachmodell für automatisierte Sprachgenerierung. GPT-3 nutzt eine Fülle online verfügbarer Informationen aus großen Datenbanken, Bibliotheken und Enzyklopädien wie Wikipedia. Das vorliegende Weltwissen wird gewissermaßen zur Content-Erstellung „angezapft“.
Da sowohl End-to-End- als auch datenbasierte Technologien ihre Besonderheiten haben, haben wir GPT-3 als Assistenzsystem in eine hybride NLG-Lösung integriert. Nachfolgend zeigen wir euch, was es hierbei zu beachten gilt – und wo die Vorteile einer nahtlos verschränkten Lösung liegen.
Bei dem datenbasierten Ansatz fußt die Content-Erstellung auf Textmodellen. Diese müssen initial eingerichtet werden. Die Templates definieren einen sinnvollen Textaufbau, formulieren für jeden der erarbeiteten Datenpunkte relevante Textvarianten und legen Bedingungen fest, welche Informationen ein Text in welcher Konstellation enthalten soll. Ist das entsprechende Textmodell einmal eingerichtet, werden anschließend im laufenden Betrieb die gewünschten Datensätze hochgeladen und verarbeitet. Es gibt bei dieser Art der Content-Erstellung also eine Setup-Phase, in der die Anwender/innen die notwendigen Templates für eine regelmäßige Sprachgenerierung anlegen und antrainieren.
Der datenbasierte NLG-Ansatz ist ideal für Use Cases, die sich stark auf Daten und Analysen stützen, wie etwa bei beschreibenden Produktbeschreibungen im E-Commerce und Einzelhandel oder bei Berichten. Diese Technologie hat den großen Vorteil, dass Unternehmen nach dem anfänglichen Aufwand eine hundertprozentige Automatisierung erreichen. Alle Texte, die entstehen, sind grammatikalisch geprüft und inhaltlich einwandfrei. Dadurch lassen sich rechtlich überprüfbare und verifizierbare Aussagen in großen Mengen generieren und veröffentlichen.
Große Sprachmodelle wie GPT-3 erfassen mittels Deep Learning eine Fülle verfügbarer Internet-Inhalte und trainiert sich das notwendige Wissen für die Textgenerierung selbst an. Das Marketing-Versprechen dieser NLG-Technologie ist es, dass man jede Art von Inhalten „on Demand“ und ohne Setup generieren kann. Aus diesem Grund ist auch von End-to-End-Textgenerierung die Rede. Dieses NLG-Modell braucht lediglich ein paar griffige Hinweise sowie einige mehr oder weniger strukturierte Daten, um Vorschläge für einen Text oder Absatz zu generieren. Allerdings darfdiese Technologie nur in einem assistierenden Prozess unter menschlicher Aufsicht eingesetzt werden.
Für eine inhaltliche Validierung, höhere sprachliche Qualitätsansprüche und sofern der Content die Google-Richtlinien für konversionsstarke Texte erfüllen soll, sind Content-Teams gut beraten, die GPT-3-Texte vor der Veröffentlichung manuell zu prüfen. Denn aktuell ist das Output solcher End-to-End-Technologien immer noch fehlerbehaftet. Außerdem kann nicht ausgeschlossen werden, dass es bei den automatisiert generierten Texten implizit zu einer Diskriminierung hinsichtlich Geschlechts, Religion, Rasse oder ethnischer Zugehörigkeit kommt. Das sind die großen Nachteile der End-to-End-Textgenerierung.
Anwender/innen im Digital Commerce, Medienbereich und darüber hinaus hatten bislang die „Qual der Wahl“ zwischen dem auf datenbasierten Ansatz mit dem initialen Einrichtungsbedarf, aber auch mit der anschließenden „Belohnung“ durch Vollautomatisierung und einem einwandfreien Text-Output, – und kreativen Lösungen via großer Sprachmodelle, die wenig Vorarbeit erfordern, aber im laufenden Betrieb fehlerbehaftete Texte generieren und deshalb eine manuelle Bearbeitung erfordern. So oder so: bei beiden NLG-Technologien sind die Unternehmen auf die Zuarbeit der Content-Teams oder externen Dienstleister angewiesen. Die unbestreitbaren Skalier- und Effizienzvorteile von Natural Language Generation konnten sich dadurch allerdings bislang nicht voll entfalten. Aufgrund der konkurrierenden NLG-Technologien bestand bislang auch die Gefahr eines Wildwuchses an unterschiedlichen Textgenerierungslösungen für die verschiedenen Anwendungsfälle.
Um unterschiedlichste Use Cases zu unterstützen haben wir unsere neue hybride NLG-Lösung entwickelt. Durch die Integration einer GPT-3-Assistenz in unsere Content Automation Plattform textengine.io lassen sich die Möglichkeiten „beider Welten“ zusammenführen. Durch die nahtlose Verschränkung des datenbasierten Ansatzes mit GPT-3 werden bei der Content-Automation neue Maßstäbe gesetzt, die es in dieser Form auf dem NLG-Markt bislang nicht gab. Dies ist nicht zuletzt dem Umstand geschuldet, dass Anwender/innen dynamische und statische Inhalte von GPT-3 innerhalb der auf Textmodellen basierenden Plattform textengine.io im Self-Service nutzen können.
Dynamisch bedeutet, dass voll integrierte Textmodelle ermöglicht werden, bei denen die Template-Einrichtung für die Content-Generierung auf GPT-3 basiert, etwa um Regeln und Bedingungen oder hartkodierte Story Plots auf den Weg zu bringen. Die Content-Teams können beim Setup neuer Templates dank eines neuen Assistenzsystems aus GPT-3-Vorschlägen wählen und diese statisch in die relevanten Textmodelle einfügen. Solche Textmodelle sind jederzeit bearbeitbar und entsprechend inhaltlich flexibel einsetzbar. Zugleich kann dadurch sichergestellt werden, dass die GPT-3-Texte immer korrekt und Compliance-konform sind – und über alle kreativen Vorteile eines großen Sprachenmodells verfügen.
Was heißt das konkret? Wenn ein Travel-Anbieter automatisiert Texte über Hotelziele in den Schweizer Alpen verfassen möchte, kann er sich bestimmte Textabschnitte wie SEO-Tags durch das „Anzapfen“ des via Template verfügbaren GPT-3-Weltwissens zu Zermatt und vergleichbaren Destinationen abdecken. Andere Textabschnitte, wo es um detaillierte Produktbeschreibungen im engeren Sinne wie die Hotel- und Zimmerausstattung oder dem dazugehörigen Restaurant geht, werden dagegen aus hochgeladenen Daten gespeist und erstellt. Der gesamte Content-Erstellungsprozess ist hierbei zwischen beiden Technologien nahtlos integriert und automatisiert. Sofern der Travel-Anbieter kein individuellen Angebotsbeschreibungen vorliegen hat, kann er via GPT-3-Assistenz auch statisch entsprechende Hotel- und Umgebungsbeschreibungen generieren lassen – diese sollten allerdings vor der Veröffentlichung vom Content-Team in der textengine.io geprüft werden.
Durch die Integration der GPT-3-Assistenz in die textengine.io können sich Anwender/innen ab sofort Beispieltexte basierend auf minimalen Eingaben vorschlagen lassen. Dadurch entfallen das zeitintensive Formulieren und Recherchieren von Beispieltexten. Neben einem benutzerfreundlichen Handling der beiden verschränkten NLG-Ansätze lassen sich detaillierte Web-, Produkt- und Kategorie-Texte in einer hohen Taktfrequenz veröffentlichen und aktualisieren.
Zugleich wird durch die Kombination aus End-to-End- und datenbasierter Content-Erstellung das Manko „ausgebügelt“, dass es GPT-3 bei längeren Texten und sich regelmäßig wiederholenden Passagen an inhaltlicher Variation fehlt. Durch die Funktionalität Textvarianten-Vorschläge kommen unsere vielseitigen Möglichkeiten hinsichtlich textlich differenzierter Formulierungen und Sätze voll zum Tragen. Anwender/innen können dadurch GPT-3-Texte, durch eine Fülle ähnlicher, aber nicht identischer Informationen ausbauen, wobei neben der Textlänge bei der Tonalität zwischen sachlich oder emotional differenziert werden kann.
Zugleich profitieren Content-Teams von unterschiedlichsten Textsorten, die sich automatisiert generieren lassen. So unterstützt die neue hybride NLG-Lösung qualitativ hochwertige Kurz-, Lang- und Meta-Beschreibungen, Title-Tags, Produkt- und Kategorietexte. Durch die End-to-End-Assistenz lassen sich SEO-konforme Beschreibungen auf breiter Skala veröffentlichen, um bei Google und Co. gefunden zu werden und um Traffic durch die organische Suche zu erzeugen. Hierbei wandelt die textengine.io den GPT-3-Output in die gewünschten Textsorten, wobei Unique Content in Form einzigartiger Content-Elemente bereitgestellt wird.
Das neue Hybrid NLG-Modell stellt für Unternehmen strategisch eine grundlegende Neuerung dar. Die Content-Automation wird ins Zentrum und nicht ans Ende jedes textbasierten Geschäftsprozesses gestellt und damit als strategischen Werkzeug entlang der gesamten digitalen Wertschöpfungskette etabliert.
Für Fragen und weitere Informationen zu Hybrid NLG, End-to-End-Textgenerierung und GPT-3 und seinen Einsatzmöglichkeiten stehen unsere Expertinnen und Experten gerne zur Verfügung. Sprich uns einfach an!