Transmediales Storytelling: Geschichten im Netz verbreiten

Hat man gemäß unserem Beitrag “Storytelling: Fünf Bausteine für gute Geschichten” eine gute Geschichte parat, muss man sie auch an die anvisierte Zielgruppe bringen. Damit eine Geschichte gehört, gelesen und gesehen wird, baut man idealerweise ein “Story-Universum” auf. Dazu gehört das transmediale Erzählen von Geschichten. Wie diese hohe Kunst des Storytellings gelingt, verraten wir euch in diesem Beitrag unserer Storytelling-Reihe.

Die neuen Player im Storytelling

Während der 90er Jahre war crossmediales Storytelling noch durchaus wirksam. Man konnte Geschichten anhand unterschiedlicher Medien (z.B. sehr zeitgemäß per Hörbücher auf Kassetten), hauptsächlich linear, konsumieren. Heute reicht das nicht mehr. Um Interesse zu wecken muss ein “Story-Universum” mit einer Kerngeschichte geschaffen werden.

Geschichten werden heute nicht mehr linear, also Satz für Satz, erzählt. Stattdessen muss man sich in unserem digitalen Zeitalter mit multimedialen und interaktiven Inhalten auseinandersetzen. Das bringt natürlich viel Raum für Kreativität mit sich. Seit sich die Fernseher in unseren Wohnzimmern ausgebreitet haben, ist es ganz einfach, eine lineare Erzählung zu unterbrechen, zu pausieren oder gar mehrere Geschichten parallel zu konsumieren.

Das Second Screen-Zeitalter macht es seit Anfang der 2010er-Jahre vor: wir konsumieren oftmals mehrere Geschichten gleichzeitig, wechseln zwischen den unterschiedlichsten Inhalten sowie Geräten und konsumieren nur dann wenn wir auch Lust darauf haben. Bereits über die Hälfte der Deutschen nutzen den Fernseher und das Internet auf einem zweiten Gerät regelmäßig parallel. Eine direkt auf eine laufende Sendung bezogene Nutzung am zweiten Gerät, üblicherweise ein Smartphone oder Tablet, ist dabei aber eher selten.

Heute werden Geschichten zudem viel offener und flexibler erzählt. Es gibt keinen unangetasteten Geschichtenerzähler mehr. Das Universum um die eigene Geschichte wird um interaktive Elemente wie Spiele und Apps erweitert. Der “Konsum” wird zur “Interaktion”.

DIE DIGITALE WELT BIETET UNS DAS WERKZEUG, UM GESCHICHTEN ZEITGEMÄSS UND SPANNEND ZU ERZÄHLEN

  • Videos (YouTube, Facebook, Snapchat)
  • Echtzeitunterhaltungen (Periscope, Facebook Live)
  • Gamification (Duolingo)

Die Basis von transmedialen Geschichten bildet eine Medienstrategie (oder auch Contentstrategie), die über die isolierte Vorgehensweise von Marketing und PR hinausgeht.

ES IST DAHER RATSAM, DAS GESAMTE PESO-SPEKTRUM AN MEDIEN AUSNUTZEN:

  • Paid Media (klassische Werbeanzeigen wie Print und AdWords)
  • Earned Media (Public Relations)
  • Shared Media (virale Geschichten)
  • Owned Media (eigene Medien wie Blogs)

So werden Geschichten viral

Ein Wort hört man (zu) oft wenn es darum geht, Geschichten im Internet zu verbreiten: “viral”. Dabei ist Viralität gar keine Erfindung des Internets. Denn gute Geschichten wurden schon immer weitererzählt. Schon unsere Vorfahren haben Geschichten mündlich und schriftlich weitergegeben. Dabei wurden Geschichten immer wieder abgeändert, ausgeschmückt oder neu interpretiert. Der Unterschied zum transmedialen Storytelling? Die Geschichten wurden früher linear erzählt. Und vielleicht ist auch dies der Grund, warum wir solche linearen Geschichten lieben und warum für Kinder kein Angrybirds auf der Welt einen guten Geschichtenerzähler ersetzen kann.

Ist diese Linearität vielleicht auch der Grund für den Erfolg von Snapchat? Auf dem neuen sozialen Netzwerk ist man beinahe gezwungen, eine Geschichte durchgehend – vom Anfang bis zum Ende – zu verfolgen. Und man muss dieser die gesamte ungeteilte Aufmerksamkeit schenken, denn die Geschichten sind nur einmalig für 24 Stunden verfügbar. “Attention Economy at it’s best”, sozusagen.

Fakt ist, es gibt kein “Rezept” für virale Geschichten. Sorry, die Überschrift hat hier vielleicht für Hoffnung gesorgt. Aber es gibt

, die die Viralität von Geschichten begünstigen. Man spricht auch davon, dass Geschichten “shareable” sein müssen.

Shareability schaffen

Tausende Klicks garantieren noch lange keine “virusähnliche” Verbreitung im Netz. Oft ist die Aufmerksamkeit schon nach wenigen Sekunden weg. Virale Geschichten erwecken bei den Empfängern das Gefühl, dass sie es wert sind, geteilt zu werden. Es kommt also – wie so oft – auf den Inhalt an. Und da kann es schon mal passieren, das man über Nacht eine große Anhängerschaft aufbaut.

BEIM TEILEN VON GESCHICHTEN VERFOLGEN MENSCHEN UNTERSCHIEDLICHE MOTIVATIONEN:

”) – Anregung zur Selbstreflexion (“Schaut doch, auch wir sind für den Klimawandel verantwortlich.”) – Erlangen von Aufmerksamkeit (“Ich war der erste!”)

Thales Teixeira, Professor für Marketing an der Harvard Business School, verweist in einem Artikel auf die Bedeutung der egozentrischen und extrovertierten Orientierung im Internet. Viele Menschen wollen ihren eigenen Status heben und ihren Geschmack und ihre Kompetenz durch die von ihnen geteilten Inhalten darstellen.

IST NUN DIE NÖTIGE MOTIVATION VORHANDEN, SO MUSS DAS TEILEN AUCH MÖGLICHST EINFACH GEMACHT WERDEN. DAHER EMPFEHLEN SICH FOLGENDE MASSNAHMEN

  • Social Share-Buttons Mittlerweile Standard für Blogs, für andere Inhalte noch nicht selbstverständlich. Die Buttons für relevante soziale Netzwerke (meistens Facebook und Twitter) sollten am besten bei jedem Inhalt zur Verfügung stehen. So können die Inhalte schnell und einfach geteilt werden.
  • Open Graph Objekte Das Open Graph-Protokoll erlaubt es, externen Inhalt auf sozialen Netzwerken wie nativen Content aussehen zu lassen. Mithilfe von Metatags können beispielsweise Titel, Bild und Beschreibung in für soziale Netzwerke optimierter Form angeboten werden.
  • Ansprechendes Bildmaterial Ein Bild sagt mehr als tausend Worte. Erzählt man eine Geschichte in reiner Textform, so sollten diese stets mit ansprechenden Bildern oder Videos unterstützen. Auch Infografiken und GIFs eigenen sich gut, um die Botschaften von Geschichten kurz und knackig (und shareable) zu kommunizieren.
  • Call-to-Action Darum zu betteln, dass die Inhalte geteilt werden macht natürlich keinen Sinn. Aber man sollte beim Erzählen einer Geschichte auch am Ende eine entsprechende (vielleicht auch subtile) Aufforderung nicht vergessen. Ein Instagram Post könnte beispielsweise mit einer Frage enden (à la “Und wie seht ihr das?”).

Chancen & Risiken

Eine große Gefahr lauert beim transmedialen Storytelling darin, dass der eigentliche Kern des “Story-Universums” verloren geht. Wenn man es als Unternehmen schafft, ein Katzen-GIF viral zu machen mag das zwar unterhaltsam sein aber die Botschaft ist dabei wohl verloren gegangen.

Je mehr Medien bzw. Kanäle man nutzt, desto mehr Aufwand entsteht auch für die Produktion und das Monitoring der Inhalte. Transmediales Storytelling kann sehr vielfältig sein und damit auch die unterschiedlichsten Menschen ansprechen (entsprechend den unterschiedlichen Lerntypen). Das bedeutet aber auch ein erhöhter Aufwand in der Produktion. Anstatt nur einen Text zu schreiben müssen Videos produziert und Apps programmiert werden. Und dabei sollte stets auch die Qualität der Inhalte im Vordergrund stehen.

Ein weiteres Problem beim transmedialen Storytelling ist die fehlende Möglichkeit, den Erfolg im Voraus zu testen. Es gibt keine Modelle, keine Erfolgsregeln, keine Rezepte oder Geheimnisse ob und wie das selbst konstruierte “Story-Universum” funktionieren wird und ob es sich ausweiten oder in sich zusammenfallen wird. Genauso schwierig ist es auch, entsprechende Kennzahlen auszuwerten und den Erfolg quantitativ zu messen

It’s All About Analytics – Google Analytics Konferenz 2016

Vor zwei Wochen fand zeitgleich mit der etailment 2016 die Google Analytics Konferenz im glanzvollen Hotel Savoyen Wien statt. Wir waren vor Ort, um uns über die aktuellen Trends im Web Analytics und E-Commerce zu informieren. Der bunte Mix aus einem Trainingstag, Vorträgen und Workshops sorgte für drei spannende Tage in einer insprierenden Atmosphäre.

Trainingstag

Die Konferenz begann mit einem Trainingstag, wobei zwei Tracks zu den Themen Google Tag Manager und ein Einstieg in Google Analytics angeboten wurden. Ich habe mich für den Google Analytics-Teil entschieden. Während des Trainings wurden alle wesentlichen Bereiche des Tools ausführlich erklärt. Der Vormittag bestand aus einer grundlegenden Einführung in die Begriffe und die Bedienung der Oberfläche sowie der Seiten- und Zielanalyse.

Die Zeit am Nachmittag war leider etwas eng und daher konnten nicht alle Punkte im Detail vorgestellt werden. Ich hätte mir etwas mehr Input zur Analyse der gesamten Customer Journey gewünscht. Dennoch war der erste Trainingstag ein Erfolg und ich konnte auch als langjähriger Analytics-Nutzer einige neue Insights mitnehmen. Vielleicht werde ich mich demnächst an die Google Analytics-Prüfung herantrauen.

Die große Konferenz

Der Dienstag war ein deutlicher Kontrast zum Trainingstag: mehr Besucher und ausschließlich Frontalvorträge. Das zentrale Thema der Konferenz wurde schnell klar. Überall hörte man “Customer Centricity”. Die Keynote hielt Thorben Fasching, Vizepräsident des Bundesverband Digitale Wirtschaft in Deutschland, für mich eines der Highlights am ersten Tag. In einer Zeit der Informationsflut wird es immer wichtiger den Kunden zuzuhören. Fasching lieferte auf die wichtigsten Themen unseres Konsumzeitalters keine Antworten sondern tiefergehende Fragen: Wie können Kunden heute entscheiden, was wirklich relevant ist? Wie kann man sich von seinen Mitbewerbern abheben?

Fasching zufolge liegt der Erfolg der Veränderung darin, sämtliche Energie auf den Aufbau von etwas Neuem zu konzentrieren und den Kunden zum Helden zu machen. Produkte oder Services sind schon lange keine Helden mehr. Und wenn es um Kunden geht, dann sollte man sich auf seine besten Kunden(gruppen) konzentrieren. Man muss die gesammelten Daten zu seinem Vorteil nutzen und die richtige Information zum richtigen Zeitpunkt am richtigen Ort zur Verfügung stellen.

DIE MEISTEN VORTRÄGE DES KONFERENZTAGES BESCHÄFTIGTEN SICH MIT FAKTEN AUS DER DIGITALEN WELT, DIE EIGENTLICH SCHON LANGE KLAR AUF DER HAND LIEGEN:

  • Die Kunden erwarten sich ein durchgängiges Einkaufserlebnis unabhängig vom benutzten Channel.
  • Eine der größten Hürden ist die Veränderung in den Denkweisen des Managements und das Loslassen von alten Prinzipien.
  • Immer mehr Menschen kaufen online und mobil ein, der Zugriff auf Echtzeitdaten beeinflusst das Einkaufsverhalten.
  • Das Prinzip “Mobile First” lässt die On- und Offline-Welt immer weiter miteinander verschmelzen.
  • Neue Unternehmen können aufgrund der digitalen Disruption innerhalb kürzester Zeit einen ganzen Markt verändern (Stichwort Uber und airbnb).
  • Eine Cross-Channel-Strategie ist nicht mehr genug, On- und Offline muss als Gesamtsystem betrachtet werden.

Ein letztes Highlight am Konferenztag war für mich das Panel zum Thema “Reinvent or Die”. Harald Gutschi von der Unito Gruppe erzählte von der Transformation des OTTO Versands vom Katalog-Business zum äußerst erfolgreichen Onlinehändler. Die schrumpfende Aufmerksamkeitsspanne (von etwa neun Sekunden) sieht Gutschi als eine der großen Herausforderungen in der Zukunft. “Der Fernseher ist das Lagerfeuer der Zukunft” – da erkennen sich wohl viele junge Erwachsene wieder. Familien sitzen heute vor dem Fernsehprogramm während sie auf ihren Smartphones im Internet surfen. Soziale Medien und Buy Buttons werden damit immer wichtiger im Online-Business.

Workshops & Best Practices

Am letzten Tag boten internationale Branchenexperten einen Einblick in fortgeschrittene Analysemethoden und Trends im E-Commerce. Während im einen Saal über den Einsatz von Beacons (nicht Bacon!) gesprochen wurde, wurde im anderen Saal über Trigger und Variablen im Google Tag Manager philosophiert.

Besonders spannend fand ich am letzten Tag die Vorstellung der Design Thinking-Methode. Dabei handelt es sich um eine Innovationmethode zur Ideengenerierung. Im besten Fall werden bei dieser Methode Menschen mit unterschiedlichem Backgroundwissen zusammengewürfelt.

Wir wurden während des Workshops in drei Gruppen eingeteilt, um den stationären Weinhandel neu zu erfinden. Mit drei unterschiedlichen Tools haben wir dann versucht das Einkaufserlebnis für den Kunden neu zu entwickeln. Der Output war nicht unbedingt revolutionär, es wurden Ideen wie mobile Payment, ein Kundenprogramm und eine bessere Beratung hervorgebracht. Nichtsdestotrotz war die Anwendung der unterschiedlichen Tools eine interessante Erfahrung. Und die persönliche Werkzeugkiste an kreativen Methoden kann nie groß genug sein!

Bin ich jetzt ein Analytics-Profi?

Für mich war die dreitätige Google Analytics Konferenz ein spannendes Erlebnis. Vom ersten Tag konnte ich hinsichtlich des Analysetools vom großen G einiges mitnehmen. Der zweite und dritte Tag standen für mich eher im Zeichen des E-Commerce. Wie so oft wurde viel heiße Luft um die bereits bekannten Herausforderungen des digitalen Zeitalters gemacht. Abgesehen davon waren aber viele spannende Persönlichkeiten vor Ort, die auch sehr intime Einblicke in ihr Business gaben. Unterm Strich konnte ich einiges an Input und Inspiration für die (Buzzword) Digitale Transformation (/Buzzword) mitnehmen. Dazu kommt ein besserer Umgang mit Google Analytics.

GraphQL is coming to Drupal

GraphQL is an application layer query language designed by Facebook that enables retrieving and editing structured, hierarchical data based on a schema. GraphQL enables the caller to explicitly and precisely specify its data requirements instead of the server providing a more limited range of predefined resources. It thereby eliminates common problems like over- or under-fetching and shifts that responsibility to the client side.

This idea is not entirely new

There have been similar concepts (e.g. JSON API, SPARQL) for quite some time now. Undoubtedly, GraphQL takes some inspiration from these. However, it drives the core idea quite a bit further and challenges some of the principles around which we have been building web services for the pastyears. Most certainly it offers remedies for some of the most frustrating problems when working with RESTful web interfaces.

Want to learn more?

If you are interested to learn more about GraphQL (you should be!), try the interactive tutorial by KADIRA (offline!)!

Drupal integration is underway

Over the past months I’ve successfully experimented with GraphQL in PHP and have started working on a Drupal 8 module that integrates GraphQL with Drupal. My goal is to enable Drupal as a GraphQL based data hub for client side applications. I am trying to achieve this by generating a full schema from the available entity types and their fields by recursively iterating over their typed data definitions. Ultimately, it will be possible to install the module on your site to automatically expose your entire data graph including support for all possible entity and field types and their properties.

Acquia and Zensations support the effort

After some initial development towards that goal, I shared the idea with the Drupal community through a


as well as a series of Tweets in which I voiced my excitement. The idea was so well received that it was even featured

a few weeks later. Since then, I’ve also had the pleasure of presenting about this a few times. Due to pressing deadlines, work obligations, and me moving to the other side of the country, progress stalled. Therefore, I am super excited to announce that Acquia is funding me to work on continue working on both the PHP library as well as the Drupal 8 module. I would like to thank Moshe WeitzmanPreston So and Wim Leers as well as Dries Buytaert and generally the Acquia OCTO team for making this possible. I also want to thank Zensations for supporting me over the past weeks and months and giving me time to work on this incredibly interesting project.

What’s next?

Wim, Moshe and I set up a list of short- and long-term goals for the project and I’ve already started working on them. Within the next few weeks, we’ll release a first version of the module including the following features:

  • Read support for all content entity types, all their fields and all properties of each possible field type.
  • Read support for various other data types that are currently defined as typed data definitions (e.g. Languages).
  • Query support for all queryable fields through EntityQuery.
  • Query support based on configured Views for complex scenarios where you need a special entry point that exceeds the capabilities of EntityQuery.
  • Query support for Views based on contextual filters that can be resolved through any of the entity types for which we are generating the schema. This will allow you to create a View with a contextual filter of type “user” and then have it automatically appear as a traversable reference in the user schema.
  • Following references of any data reference type specified through typed data (e.g. entity reference fields).
  • Reverse querying of entity reference fields (e.g. fetching all nodes that reference a particular user entity by following the “uid” entity reference field in reverse).
  • Entity and field level access checks based on the Entity and Field Access API.
  • Manual aliasing of field names to mask some of the uglier machine readable names.
  • Extendability through custom type resolvers.
  • Graphical interface for crafting queries and exploring the schema by integrating GraphiQL

In the future we will also support write operations (mutations) and we are looking for ways to further control, extend and fine tune the generated schema both through configuration and code.

As we are preparing the release, I’ll post more details about each of the outlined features and our future plans for the module.