April 11th, 2011 by Alexander Becker

Endlich: Das Warten hat ein Ende. Nach dem ich es vergangen Woche noch beschrien habe, gibt es endlich einen Rivva-Nachfolger. Er hört auf den Namen Newshype und ist noch in der Closed-Beta-Phase.

Ich konnte das neue Portal schon einmal testen und muss gestehen: ich bin froh. Der Aggregator hat potential. Er ist nicht so schlicht wie Rivva, scheint dem Betrachter aber tatsächlich einen gewissen Überblick über den aktuellen Diskussionsstand in der Blogophäre zuverschafft.
Neuer Blog Aggregator Newshype

Allerdings setzt das neue Angebot weniger auf einen schnellern auf-einen-Blick-Überblick, sondern auf ein Ressort-Kozept. Die Inhalte werden in die Rubriken Politik, Gesellschaft, Kultur, Medien, Technik, Wissenschaft, Recht, Unterhaltung, Mode und Sport eingeordnet. „Das klingt ausgewogen“, findet Andre Vatter. „Abweichend ist hingegen auch die Hierarchisierung der gefundenen Einträge, die offenbar rubrikintern geschieht; zumindest ist nicht ersichtlich, welcher deutsche Top-Blogpost gerade richtig heiß und themenübergreifend diskutiert wird.“

Allerdings laufen die Ressorts noch nicht. So soll der Server überlastet sein.

Ich muss Andre nur bedingt Recht geben. Mir hat vor allen der Blick auf die Startseite mit ihrem ersten Themen-Überblick viel Spaß gemacht. Zu jedem angerissenen Blog-Posting wird angezeigt, wie viele Links die Story hat und wie oft sie via Twitter erwähnt wird. Allerdings ist es tatsächlich nicht ersichtlich, warum gerade eine bestimmte Storys dort zu finden sind. So sind einige Texte bereits von Freitag.

Hinter dem Projekt stecken die Köpfe von Netzfeuilleton.de. Sie versprechen: „Newshype will die meist verlinkten und meist diskutierten Artikel der deutschen Blogosphäre sammeln und damit Debatten zwischen Blogs abbilden. Dazu crawlen wir aktuell über 2000 Seiten und zugehörige Tweets.“

Auch wenn auf die Macher noch viel Arbeit wartet, hat das Angebot das Zeug dazu, zu einer wichtigen Anlaufstelle in der Blogophäre zu werden. Der Blog-Community fehlt seit dem Ende von Rivva eine Seite, die einen Überblick über die wichtigsten Diskussionen liefert. Newshype könnte diese Lücke schließen. Allerdings ist noch unklar, was die Macher anders als Rivva-Mastermind Frank Westphal machen wollen, dass ihnen nicht auch schon bald die Puste ausgeht. Hoffentlich haben Sie einen langen Atem.

April 15th, 2010 by ethority - Social Media Intelligence Team

We proudly present: Das Social Media Prisma Version 2.0

Die zweite Version des Prismas für die deutsche Social-Media-Landschaft ist da. Das Besondere: Das Prisma zeigt nicht nur prägnante Veränderungen des letzten halben Jahres, sondern ist dieses Mal von den Usern mitgestaltet worden.

Nach der ersten Version, die im September 2009 veröffentlicht wurde, erscheint nun die zweite exemplarische Darstellung der Social Media im deutschsprachigen Raum. Auf einen Blick erkennt man das aktuelle Prisma am neuen hellen Innenleben und an der großen Vielfalt der Plattformen.

Social Media ist ein schnelllebiger Bereich, der ständig wächst. Bei der Erstellung des ersten Prismas vor sechs Monaten standen Location Based Services nicht zur Debatte, heute sind sie nicht mehr weg zu denken. Genauso wenig dachten wir an die Kategorie Gaming, die wir aufgrund vieler Userkommentare selbstverständlich mit aufgenommen haben, leider auf Kosten der Event-Kategorie.

Eine der größten Veränderungen vollzieht sich in der Kategorie Twitter Ecosystems, viele Tools und Anbieter sind hinzugekommen und haben andere Features – Reichweite und Beliebtheit betreffend – überholt. Hier haben wir zwecks Recherche auf die eigene Twitter-Timeline geschaut und die beliebtesten Tools übernommen.

Somit handelt es sich erneut um eine exemplarische, zum Teil subjektive, Abbildung der Social Media Landschaft auf dem deutschen Markt.

An dieser Stelle einen herzlichen Dank an alle, die uns mit Kommentaren und Vorschlägen unterstützt haben. Der Frequentierungsgrad als vormerkliches Kriterium ist den vielen Anregungen und Neuentdeckungen von Usern und ethority selbst gewichen.

Leider konnten wir nicht alle Ideen berücksichtigten: zum Teil reichte der „Social“-Bezug nicht aus, oder aber es scheiterte schlicht und einfach am geringen Platz im Blütenblatt.

Das Prisma wird unter der Creative Commons Lizenz veröffentlicht und steht somit für Präsentationen und Vorträge zur Verfügung. Hier geht es zur Subsite und zum Download in verschiedenen Größen. Wer das Prisma in gedruckter Form sehen möchte, der sollte heute in die aktuelle Ausgabe der W&V schauen.

Viel Spaß beim Erkunden des neuen Prismas und wie immer sind Anregungen und Kommentare hier, bei Twitter und unter prisma@ethority.de  sehr willkommen.

März 17th, 2010 by ethority - Social Media Intelligence Team

Das Rad wird neu erfunden   Social Media Prisma Version 2.0

Ganz so innovativ wie die Überschrift verspricht,  kommt es dann doch nicht. Da sich aber die Social-Media-Landschaft in Deutschland sehr schnell verändert und dazu gewinnt (aber auch wieder verliert), aktualisiert ethority das Social Media Prisma und veröffentlicht im April die Version 2.0. Das nehmen wir zum Anlass einen letzten Aufruf für Vorschläge zu starten, die wir bis  Mittwoch, d. 24.03.2010 gerne und dankbar entgegen nehmen. Alle Vorschläge, die uns  seit September 2009 durch E-Mails, Tweets und Kommentare erreicht haben, sind bereits berücksichtigt worden.

Mails an  prisma@ethority.de

Tweets an @ethority

Oder einfach Kommentare unter den Artikel posten.

Für den Überblick hier noch einmal die Kategorien:

  1. Reviews/Rating
  2. Pictures
  3. Wikis
  4. Music
  5. Events
  6. Documents/Content
  7. Video
  8. Location
  9. Comment and Reputation
  10. Interest and Curated Networks
  11. SMS/Voice, Instant Messenging
  12. Forums
  13. Social Networks
  14. Lifestreams
  15. Twitter Ecosystems
  16. Micromedia
  17. Blog Communities
  18. Blog Search
  19. Blog Platforms
  20. Collaboration
  21. Crowdsourced Content
  22. Social Shopping/Social Commerce
  23. Live Casting
  24. Question & Answers
  25. Social Bookmarks

Potentielle neue Kategorien:

  1. Blogs
  2. Mashups
  3. Podcasts
  4. Virtual Worlds
  5. Game sharing
  6. Gaming
  7. Location based Services

Zum Vergleich hier noch einmal die Version 1 des Prismas.

Vielen Dank!

Januar 5th, 2010 by ethority - Social Media Intelligence Team

Die 12 wichtigsten MarktforschungstrendsSocial Media Monitoring, Netnography, Sentiment Mining – welche Marktforschungsmethoden und -paradigmen werden uns in das nächste Jahrzehnt begleiten und dort mit neuen Technologien, Ideen und Herausforderungen versorgen?

  1. Ethnographie: Ursprünglich war die Ethnographie eine politische Herrschaftstechnik. Das Ziel: Kontrolle über fremde Kulturen in den Kolonien. Mittlerweile hat die Marktforschung eine kleine ethnologische Wende erlebt und erforscht mittels teilnehmender Beobachtung nach Brand Tribes, Subkulturen und Communities.
  2. Netnographie: Mit der vor allem von dem US-Soziologen Kozinets geprägten Netnography ist die Ethnologie ins Internet gewandert. Hier geht es nicht mehr um die Erforschung fremder Stämme in unzugänglichen Urwäldern, sondern um das Mitleben und Verstehen von Communities, die sich online in Foren, Blogs, Networks oder auf Twitter austauschen.
  3. Ethologie: Die Ethologie ist kein Schreibfehler von Ethnologie. Hierbei handelt es sich um einen Ansatz aus der Biologie, der bedeutet: Das Verhalten von Lebewesen detailliert und präzise zu beobachten, vergleichen und zu dokumentieren. Begründer dieses Ansatzes waren unter anderem Konrad Lorenz oder Irenäus Eibl-Eibesfeldt. Heute verwendet man diese Methode zum Beispiel um das Verhalten von Menschen in Konsumumgebungen wie Supermärkten zu entschlüsseln.
  4. Social Media Monitoring: Social Media Monitoring-Systeme wie unser gridmaster dienen der Beobachtung und Erforschung von allen möglichen nutzergenerierten Kanälen und Plattformen im Social Web von Foren über Blogs bis Produktbewertungen. Das Brand Monitoring beobachtet, wie sich das Gesprächsvolumen (Buzz) zu bestimmten Marken und ihren Wettbewerbern im Zeitverlauf entwickelt. Das Issue Monitoring identifiziert kritische Diskussionen und dient damit als Frühwarnsystem zum Beispiel um sogenannte Streisand-Effekte zu verhindern. Das Trend Monitoring identifiziert Trends und Innovationen und ist der Ausgangspunkt für die Entwicklung neuer Produkten gemeinsam mit den Nutzern.
  5. Sentiment Analysis: Mit Hilfe von automatisierten semantischen Parsern wird in der Tonalitätsanalyse festgestellt, ob bestimmte Aussagen positive oder negative Meinungen oder Stimmungen beschreiben. Die Tonalitätsanalyse ist mittlerweile ein wichtiges Modul von Social-Monitoring-Systemen, mit dessen Hilfe festgestellt werden kann, wie sich die Meinung der Nutzer über Marken oder Produkte mit der Zeit verändert.
  6. Data Mining: Im Data Mining dreht sich alles um das Erkennen von Mustern und Regeln in sehr sehr großen Datenmengen – Business Intelligence im Petabyte-Maßstab. Die professionellen Numbercruncher untersuchen zum Beispiel große Textkorpora wie die Blogosphäre nach semantischen Zusammenhängen oder die von Web Analytic Tools aufgezeichneten Verhaltensspuren von Internetsurfern auf regelmäßige Pfade.
  7. Social Network Analysis: Eine Sonderfall des Data Mining ist die Netzwerkanalyse. Ihr Alleinstellungsmerkmal ist die Betrachtung von Datensätze als Kombination von Knoten und Verbindungen. Dieses Verfahren bietet sich besonders für die Analyse von Linknetzwerken, sozialen Netzwerken wie StudiVZ, Facebook, Myspace oder Werkenntwen an, aber auch abstraktere Netzwerke wie zum Beispiel Kaufgewohnheiten, Warengruppen oder semantische Netzwerke lassen sich analysieren. Häufig geht es darum, besonders zentrale oder einflussreiche Knoten zu finden, so genannte Influencer oder Opinion Leaders. Virales Marketing, Googles AdSense-Programm oder Amazons Related-Links sind angewandte Netzwerkanalyse.
  8. Onlinepanels: Onlinepanels gibt es mit zwei unterschiedlichen Zielsetzungen: Zum einen können sie sich aus einer großen Anzahl von Internetnutzern zusammensetzen, die dann von dem Panelbetreiber zu bestimmten Themen befragt werden. Onlinepanels werden aber auch von Web-Analytics-Anbietern verwendet, um das Surfverhalten der Panelmitglieder auf die gesamte Onlinebevölkerung hochzurechnen und die Reichweiten der Angebote abzuschätzen. Um Zahlen für sehr long-tailige Internetseiten zu erheben, benötigt man aber sehr große Panels.
  9. Onlinefokusgruppen: In eine ähnliche Richtung gehen Onlinefokusgruppen oder Closed User Groups, in denen eine geringe Zahl von Mitgliedern zu bestimmten Themen oder Reizen befragt werden und sich in Wikis, Foren oder Blogs miteinander austauschen können. Auf diese Weise lassen sich zum Beispiel virtuelle Copytests durchführen, in denen Claims oder Videoclips getestet werden.
  10. Crowdsourcing: Wenn es um Innovationen und Produktentwicklung geht, kann man anstelle der indirekten Datengewinnung mittels Social Media Monitoring auch die innovativsten Nutzer direkt um ihre Ideen fragen. Zum Beispiel mit Wettbewerben, in denen dann die besten Entwürfe für ein neues Produkt gekürt und mit einem Preisgeld bedacht werden. Die wichtigsten Beispiele hierfür sind Dell Ideastorm und Tchibo Ideas.
  11. Distributed and Open Innovation: Während sich das Crowdsourcing an die Masse (oder: den Schwarm) richtet, wird in Open-Innovation-Verfahren mit Lead Usern, also einzelnen besonders innovativen Nutzern, gemeinsam an neuen Produkten gearbeitet. Die große Herausforderung dieses Verfahrens, das von Eric von Hippel entwickelt wurde (hier gibt es seine Bücher zum Download), ist die Identifikation von solchen Lead Usern in Social Media, aber auch anderen Quellen.
  12. Mashups und Metaanalysen: In den “Nuller-Jahren” haben wir eine Explosion von Metadaten erlebt, die es ermöglichen, immer mehr Primärdatensätze zu matchen und auf diese Weise mehrdimensionale Mashups oder Datenfusionen zu erstellen. Ähnliches erleben wir auf der Ebene von Analysen, wo häufig mehrere Analysen einer Sekundärauswertung unterzogen werden, um eine Summe aus Forschungsergebnissen unterschiedlicher Methoden und Institute zu gewinnen.

Inspiriert von Rob Kozinets lesenswerter Buchrezension von “More Guerrilla Marketing Research”.

November 25th, 2009 by ethority - Social Media Intelligence Team

Der Social Media Newsroom, der seit langem in der gedanklichen Schublade von ethority geruht hat, ist nun verwirklicht.

Der US-amerikanische PR-Berater Todd Defren gilt als Begründer des Social Media Newsroom . Dieser ist vergleichbar mit einer digitalen Pressemappe plus den gebündelten Aktivitäten des Unternehmens im Netz. Auch der Newsroom von ethority vereint alle Web 2.0 Tools – auf einen Blick bekommt man eine Übersicht über alle Social-Media-Aktivitäten:

Launch: Social Media Newsroom und Pressroom von ethority

-         FlickR-Slideshow

-         Blog Feed mit den neuesten Beiträgen

-         Twitterstreams von ethority und Mitarbeitern

-         Slideshare

-         Youtube-Account

-         What we read

-         About ethority

Des Weiteren wird der Newsroom mit Informationen aus unserem Presseblog gespeist, in dem sich neben Logos, Grafiken und Pressebildern, die aktuellen Pressemitteilungen sowie der Pressespiegel Print und Online befinden – also alle  relevanten Unternehmensinfos, die aber nicht nur das Social Web betreffen.

Die Veränderungen, die das Web 2.0 mit sich brachte, schlagen sich auch in der PR nieder. Durch den Pressroom wird Pressearbeit transparent gemacht und erleichtert den Informationsfluss. Ein Social Media News und Press Room bietet aber auch viele andere Vorteile:

-         alle Online-Aktivitäten von ethority auf einen Blick

-         gleichzeitige Ansprache von Journalisten und weiteren Influencern

-         ständiger und öffentlicher Zugriff auf Pressematerial für Journalisten und Blogger

-         Aktualität durch Abonnement des RSS-Feed

-         schnelle Kontaktmöglichkeit zu ethority

-         jeder kann frei wählen, welche Informationen er heraus filtern möchte

Nach wie vor stehe ich aber auch gerne persönlich zur Verfügung, um alle Interessenten mit dem gewünschten Pressematerial zu „versorgen“.

Für weitere Informationen über das Konzept eines Social Media Newsrooms kann man sich auch bei Kubitz.net erkundigen.

Beispiele für weitere deutsche Social Media Newsrooms gibt es beim PR-Blogger.

Oktober 27th, 2009 by ethority - Social Media Intelligence Team

Den Artikel „Die Geburtsstunde des Social Media Brand Building“ von Sten Franke und Roman Schael gibt’s nun auch als Präsentation, in der  die elementaren Grundsätze und wichtigsten Aussagen zur Veranschaulichung visualisiert wurden. Enjoy!

Oktober 21st, 2009 by Sten Franke

Die Geburtsstunde des Social Media Brand Building: Elementare Grundsätze!

Heutige Konsumenten sind nicht überall gleich zu fassen – sei es über klassische Kanäle wie Radio&TV oder Neuartige wie Social Media. Ihr Mediennutzungsverhalten hat sich fragmentiert, bei vielen Marken lösen sich die Bindungen zu den Konsumenten auf. Das Medium Internet ermöglicht den Usern ein äußerst selektives Bewegen, dabei  kommen sie hauptsächlich nur mit dem in Kontakt, was für sie eine besondere Relevanz besitzt.
Die Herausforderung der Strategieentwicklung in Social Media liegt darin, das Phänomen Echtzeit in den Griff zu bekommen. Als Brand Affinity Specialist entwickelt ethority nachhaltige Strategien, die die Marken und Produkte dauerhaft an Kundenpotentiale anbinden. Diese Strategien sind derart angelegt, dass sie den heutigen, dezentralen und individualisierenden Tendenzen des veränderten Mediennutzungsverhaltens entsprechen.

Elementare Grundsätze des “Social Media Brand Building“

1. Social Media bedeutet Ver-Online-isierung des Alltags!
Im Internet existiert keine Zeit per se. Jeder User muss seine Eigenzeit und Raumbezug jedes Mal neu bestimmen, wenn sie oder er online geht. Dadurch entsteht bei jedem Eintritt ein Zeitbewusstsein, welches das Echtzeit-Phänomen bedingt. Die Realität heißt: Online sein!

2. Der Massen-Konsument wird zum Einzel-Konsument!
Der Kaufentscheidungsprozess wird durch Social Media grundlegend verändert. Er wird erweitert und durchdrungen von gegenseitiger Empfehlung, Beratung und Entscheidungsfindung. Der Kaufprozess wird social-medialisiert.

3. Echtzeit löst Marken-Wechselverhalten aus!
Der Echtzeit-Bezug verursacht eine ernst zunehmende, kritisch-mündige Wirkkraft. Denn der social-medialisierte Kaufentscheidungsprozess ist nun durchdachter, abgewogener, und wird stets unter Echtzeit neu ausgehandelt. Jedes Mal, wenn der Konsument online geht und die Märkte, Bazare (Foren) und Händlerstores (Branded Channels) durchstreift, sich jedoch kurz vor der Kassenstrecke noch einmal umdreht, um sich für ein anderes Kaufobjekt zu entscheiden, offenbart sich dieser Grundsatz der Social Media Brisanz.

4. Das Ende der Marken und Produkte als “Impulse Buy Item”!
Marken und Produkte können nicht länger als “Impulse Buy Item” beworben und verkauft werden. Durch die Social-Medialisierung des Kaufprozesses kann die Online-Konversation in Social Media nicht mehr als „Gesabbel“ abgestempelt werden. Denn die Konversation in Foren, Blogs und auf Twitter ist lautes Denken. Hier wird laut über Marken und Produkte GEDACHT, ERLEBT und EMPFUNDEN!

5. Social-Medialisierung setzt Marken und Produkte unter einen Dauertest!
Das Echtzeit-Phänomen bewirkt, dass Marken und Produkte jedes Mal aufs Neue auf dem Prüfstand stehen. Der Alltag des heutigen Users ist durchdrungen von Ver-online-isierung. Dies erfordert, sich mit Vollerhebung in Echtzeit immer und ständig mit dem User mit zu bewegen, um zu wissen, wohin er geht – und vor allem wo und wann man ihn womit – als User – ansprechen kann.

6. Vollerhebung in Echtzeit!
Ausschließlich in Echtzeit lässt sich erfahren, wann man mit den Usern individuell in den Dialog treten sollte.

7. Social Media fordert ständige Präsenz!
Social Media Marketing erfordert immer dann, wenn der Kunde als User online archetypisch auf “Beutezug” geht, präsent zu sein. Die Eröffnung eines social-medialisierten Kaufprozesses gelingt ausschließlich mit Empathie und mit Wissen über den genauen und angemessenen Moment. Wer zu diesem Zeitpunkt nicht bei den Usern präsent agiert, verpasst seine Beratung und den Verkauf an den User zu bringen.

8. Marken und Produkte müssen dauerhaft an Kundenpotenziale angebunden sein!
Nachhaltige Strategien in Social Media unter einem vollerhebenden Monitoring sorgen dafür, dass Unmet Needs vor ihrer Zeit erkannt, aufgedeckt und auf Ihre Marke und Produkt hin bezogen eingelöst werden können.

9. Nicht Isolation, sondern Integration
Mit “Social Media Brand Building“ kann man das Echtzeit-Phänomen unter Kontrolle bekommen. Einseitiges Monitoring reicht dazu nicht aus, um adäquat Kundenbedürfnisse zu erfüllen. Die Nutzung isolierter Social Media Tools (nicht-vollerhebendes Monitoring und manuelle Recherche) können in ihrer Suche vieles nicht erfassen und schließen damit vieles aus. Social Media Monitoring darf keine Tunnelblick-Betrachtung sein.

10. Sapere aude!*
Die Social-Medialisierung erzeugt eine unverschuldete Mündigkeit, da der Konsument als User im Online-Medium mutiger, mündiger und sich seines Verstandes bedienend ist, insbesondere auch dann, wenn er sich in den Kaufmodus begibt.
*ethority als Fürsprecher mündiger User zieht Kant heran, ohne den Anspruch, ihn völlig zu begreifen und vollständig fassen zu können.

Die elementaren Grundsätze für „Social Media Brand Building“ schaffen faktische Realität:
Social Media ist kein Kanal im so genannten Marketing-Mix. Der Grund dafür ist die social-medialisierte Zweiweg-Kommunikation. Sie vervielfacht auch die Werbewirkung  und rechtfertigt einen Shift der Media Spendings. In den USA und UK sind die Online Media Spendings bereits höher als die TV Spendings.

Wenn der Konsument online ist, sitzt er in keiner Weise passiv vor dem TV. Er sucht im Dialog Zuspruch und Auseinandersetzung, wenn er sich zu einer Marke oder einem Produkt in die Foren und Branded Channels begibt. Dabei kauft er nur, was auch online besprochen wird; social-medialisiert ist. Das bedeutet: Der Konsument schaut nicht mehr kommentarlos zu wie beim TV. Er gibt seinen Kommentar fordernd ab und bevorzugt diejenige Marke, mit der er gemeinsam den Umgang mit deren Produkt medialisiert leben kann.
Und “Social Media Brand Building“ ist der Abverkaufshebel zur Zweiweg-Kommunikation  in einer auf 24/7 strebenden online durchdrungenen Alltagswelt. “Social Media Brand Building“ leistet essentielles “Brand Bonding“ und realisiert, das „das Branden  mit den Usern gemeinsam gestaltet wird.“

September 21st, 2009 by ethority - Social Media Intelligence Team

DIE NEUE VERSION (APRIL 2010)  DES SOCIAL MEDIA PRISMAS (VERSION 2.0) FINDEN SIE HIER:

http://www.ethority.de/weblog/social-media-prisma/

 ethority präsentiert: Das erste Social Media Prisma für den deutschen Markt

Social Media wird hierzulande häufig als US-Phänomen verstanden. Von Obama über Zappos bis Ashton Kutcher – die großen Geschichten stammen immer wieder aus den USA. Und auch Darstellungen wie das vielzitierte Social-Media-Prisma von Brian Solis konzentrieren sich auf die Softwarelandschaft der USA: So fehlen zum Beispiel in der Kategorie Social Networks Xing, VZ-Netzwerke, die Lokalisten oder Wer-kennt-wen, da diese in den USA weitgehend unbekannt sind. Diese Unterschiede hatten wir bereits in unserer Internationalen Social-Network-Studie festgestellt.

Deshalb hat das Team von ethority in Anlehnung an Brian Solis und JESS3´s Conversation Prism: The Art of Listening, Learning and Sharing eine Version speziell für den deutschen Markt entwickelt. Das Prisma zeigt die Landschaft der Social Media in Deutschland mit allen relevanten Konversationskanälen.

Darauf basierend sind die einflussreichsten deutschen und internationalen Anbieter in den einzelnen Kategorien mit ihrem Logo vertreten. Hinsichtlich der Kategorisierung von Solis und JESS3 sind kleine subjektive Anpassungen an den deutschen Markt vorgenommen worden: Die Kategorie „Costumer Service Networks“ aus dem Original wurde z.B. ersetzt durch die Kategorie „Social Shopping/Social Commerce“, die eine immer größere Rolle im Bereich Social Media spielen. Hinzugekommen ist auch die Kategorie „Questions & Answer Sites“, welche trotz Knowledgepools, wie beispielsweise Wikipedia, im Social Web nach wie vor eine bedeutende Position einnimmt.

Das Social Media Prisma wird unter der Creative Commons Lizenz veröffentlich und steht damit zur Verwendung eines jeden Interessierten für Präsentationen und Visualisierungen zur Verfügung. Dabei ist lediglich zu beachten, dass die Quellennennung erfolgt und eine Veränderung untersagt ist.

An dieser Stelle möchte ethority die einzelnen Konversationskanäle zur Diskussion stellen und dazu auffordern, aktiv an der Reifung des Prismas zu einer umfassenden Darstellung der Social-Media-Landschaft in Deutschland beizutragen. Anmerkungen und Vorschläge bitte an prisma@ethority.de oder natürlich als Kommentar auf das Blog.

Das Prisma gibt es hier zum Download oder kostenlos als Miniposter an unserem Stand auf der dmexco (Stand A030). Dort besteht auch die Möglichkeit ein kurzes Statement in einem Vodcast abzugeben.

 ethority präsentiert: Das erste Social Media Prisma für den deutschen Markt

September 19th, 2009 by ethority - Social Media Intelligence Team

Heute wie versprochen einige Slides aus der Präsenstation von Dr. Benedikt Köhler zum Thema “„Wenn Kunden mit Kunden (über Sie) reden: Wie Unternehmen im Web 2.0 erfolgreich kommunizieren”, präsentiert am 10.09.2009 in München auf dem Colloquium der Trurnit-Gruppe:

September 18th, 2009 by Sten Franke

Ausgehend vom gestrigen Artikel werde ich heute die komplexeren Social-Media- Monitoring-Technologien und Auswertungsmöglichkeiten näher beleuchten und die Pros und Cons aufzeigen:


Social Media Monitoring Technologien (gridmaster)

Social-Media-Monitoring-Technologien wie gridmaster blicken auf einen langen -Entwicklungszeitraum in den unterschiedlichsten Anwendungsszenarien zurück. Bis 2005 waren das Marken-Monitoring und das Issues-Tracking (Themen-Beobachtung zur Krisen-Prävention) Haupteinsatzgebiete der Technologie.
In dieser Zeit wurden sehr umfangreiche Algorithmen für die Crawler (eigene Suchroboter), die Data-Mining-Fähigkeiten (Textanalyse) besitzen, entwickelt, um für die Krisenprävention exakte und verlässliche Ergebnisse in „Echtzeit“ zu generieren. Mit der Verbreitung von Social Media und der exorbitanten Zunahme der Ergebnismenge durch User Generated Content wurde insbesondere die Infrastruktur und die Performance mittels IBM-Blade-Server-Systeme ausgebaut. So ist es möglich, ein Sample von mehreren Hunderttausend oder Millionen von Marken-Erwähnungen und Nennungen auf eine sinnvolle und erkenntnisliefernde Größe je Themengebiet in kürzester Zeit zusammen zustellen. Das ist Echtzeit-Monitoring!
Im Gegensatz zu vielen anderen Monitoring-Methoden, arbeitet gridmaster mit einer eigenen semantischen Such-Technologie, die nicht von Schnittstellen oder den Datenbänken anderer Anbieter abhängig ist. Zusätzlich werden Harvester (Micro-Searches) eingesetzt, um Social Networks (s. Nutzungsbestimmungen), Foren und Communities bis in die letzte Hierarchie-Ebene untersuchen zu können

Vorteil: hohe Erkenntnistiefe, Geschwindigkeit (real-time od. Echtzeit), Genauigkeit,  uneingeschränkte Anwendungsmöglichkeiten und Performance

Nachteil: höhere Kosten, aufwendigeres Setup

Social Media Research & Netnographie

Meist wird der Gedanke zum Aufbau eines Social Media Monitorings nicht zu Ende gedacht und man beschränkt sich auf das „Was“ und das „Wie“ untersucht wird. Vernachlässigt wird in meinen Augen eine der wichtigsten Komponenten – die Evaluation der Ergebnisse:
Wer hat die nötige Zeit und, nicht zu vergessen, das nötige Fachwissen, die Daten richtig zu interpretieren?! Hierbei geht es beispielsweise nicht um die Aussage „Hier ist ein Beitrag in einem Blog mit hohem Influencer-Potenzial“, sondern vielmehr darum, Referenzpunkte und Marktinformationen zu haben, um das Ergebnis in einem Kontext beurteilen zu können.
Zusätzlich braucht man das marktforscherische KnowHow, um die Verhaltensweisen und Nutzungsmotive der User zu beschreiben, Bindungsmechanismen und deren Bedeutung festzustellen, um eine Empfehlung im Marken-, Produkt-, CRM- oder unternehmensstrategischen Kontexten aussprechen zu können. Genau dieser Punkt beschreibt die Bedeutung der Auswertungsdimension.
Fazit:
In den USA sehen wir schon seit einiger Zeit eine Abkehr von traditionellen Methoden und Vorgehensweisen, da die unternehmensrelevante Bedeutung von Social Media so stark zugenommen hat, dass man auf umfängliche, verlässliche und gültige Informationen in Echtzeit zurückgreifen möchte und das KnowHow von Spezialisten nutzt, um relevante Consumer Insights zu generieren, welche umgehend in Kommunikationsstrategien einfließen können.
Der Einsatz einer dauerhaften Social-Media-Monitoring-Technologie in der Kombination mit erfahrenen Research-Spezialisten bringt beim Einsatz von Social Media
•    nachhaltigen Erfolg in den operativen Einheiten
•    strategische Vorteile gegenüber den Wettbewerbern
•    ein enormes Kosteneinsparungspotenzial
Es geht also nicht um Mehrausgaben, sondern um die Umschichtung von bestehenden Budgets zu Lasten veralteter Methoden. Hier gilt das neue kommunikative Momentum: Statt Mehrausgaben sollte eine Umschichtung der Budgets in die Zwei-Weg-Kommunikation stattfinden. Diese Vorgehensweise ist sinnvoller als Erfahrungskosten meiden zu wollen und sich somit mit jedem verstrichenen Tag den Zugang zu den Konsumenten zu verschließen.

September 17th, 2009 by Sten Franke

Fast täglich erreichen uns Anfragen zum Thema Social Media Monitoring, Webmonitoring und Measurement in Social Media. Wen wundert’s – bildet doch das „Zuhören“ oder „Hineinhören“ in die betroffenen Zielgruppen Grundlage für viele aktive Marketing- und CRM-Maßnahmen. Forrester prognostiziert bis 2012 die Umschichtung eines relevanten Teils der Marktforschungsbudgets von US-Unternehmen in  Social Media Monitoring & Analyse.
Als wir vor über 10 Jahren mit den ersten Webmonitoring-Projekten begonnen haben, waren vor allem Newsgroups, Messageboards, Gästebücher und Webseiten im Fokus unserer Analysen. Mit dem rasanten Wachstum von User Generated Content und dessen Einfluss auf Markensympathie, Empfehlungsverhalten und Kaufentscheidungen der Verbraucher, aber auch auf Reputation von Produkten, Personen, Unternehmen und Organisationen, wächst der Bedarf für professionelle Monitoring-Lösungen.

Besonders wichtig ist die Analyse von Social Media in Echtzeit und das 24/7-Monitoring, denn die Geschwindigkeit mit der Kommunikation heute abläuft, hat sich vervielfacht. Relevante Informationen werden über Twitter, Blogs, Social Networks und Onlineforen in wenigen Sekunden verbreitet, kommentiert, hundertfach multipliziert und millionenfach „gehört“.
So ergeben sich zahlreiche Herausforderungen aufgrund der Komplexität von Social Media und den mannigfaltigen Auswertungsdimensionen und Möglichkeiten:
1.    Welche Social-Media-Plattformen sollten untersucht werden? Twitter und andere Microblogging-Dienste, Blogs, Social Networks, Online-Foren, Bewertungsportale, Video-      Channels, News-und Nachrichten-Seiten, Aggregatoren etc.
2.    Welche Themen sollten untersucht werden?
Marken, Produkte, Social-Media-Kanäle,  Aufbau von Begriffswelten – keine Keywordlisten
3.    Welche Anwendungsmöglichkeiten gibt es? CRM, Marketing, Marktforschung, PR, Recruiting 2.0, Vertriebssteuerung etc.
4.    Welche Webmonitoring-Tools sind am Markt verfügbar? Websearch-Tools, Webclipping-Services, Monitoring-Dashboard-Tools, gridmaster-Monitoring-Technologie
5.    Wer wertet die Daten aus und wie werden diese interpretiert?
Eigenes KnowHow, Research-Team, Referenz-Systeme & Kennzahlen, Social-Media Analysten
6.    Welche Erkenntnisse, ROI, Benefits und KPIs lassen sich ableiten?
z. B. Werbewirkung, Consumer Insights, Kundenbindung und  effektivere Kampagnenplanung

Webclipping-Dienste (Medienbeobachtung)
Die Webclipping-Dienste werden der Vollständigkeit halber hier erwähnt, sind jedoch für jegliche sinnvolle Social-Media-Auswertungen ungeeignet. Zum einen werden häufig nur einige wenige Weblogs  beobachtet, zum anderen wird mit Stichwort- oder Keywordlisten gearbeitet, die keinerlei Insights zulassen.
Social Media Dash-Board-Tools
In aller Munde sind so genannte Dashboard-Monitoring-Tools, da sie aufgrund ihrer niedrigen Einstiegskosten einen groben Eindruck über Blogkommentare und Twitter-Erwähnungen ermöglichen und mit farbigen Charts und Visualisierungen vermeintlich relevante Themen und Keywords hervorheben und deren Relevanz mit diversen Skalierungen suggerieren.
Die Grenzen dieser Tools sind jedoch schnell ausgereizt, da sie nur einen Teil der Social-Media-Plattformen abbilden und aus meiner Erfahrung weniger als 10% der relevanten Beiträge aufzeigen. Zum Beispiel können Online-Foren und Bewertungsplattformen nicht umfänglich berücksichtigt werden, wo diese jedoch mehr als 80% des Social Media Buzz ausmachen.
Zum anderen liefern Dash-Board-Tools eine hohe Ungenauigkeit bei der Trefferzuordnung, da kaum die Möglichkeit besteht, die Tools zu trainieren, Begriffswelten aufzubauen und Themenfilter zu programmieren.

Social Media Monitoring, Analyse, Netnography – Best Practice Teil 1
Vorteil: niedrige Kosten, gute Visualisierung von allgemeinen Informationen ohne Erkenntnistiefe
Nachteil: geringe Trefferanzahl, hohe Fehlerquote, keine individuellen Auswertungen

In Teil 2 möchte ich morgen früh die  komplexeren Monitoring-Technologien und Auswertungsmöglichkeiten näher betrachten.

September 7th, 2009 by Alexander Becker

Top-Thema des vergangenen Wahlsonntag waren die zwei Zwitscherer, die bereits 1,5 Stunden vor dem Schließen Wahllokale bereits eine fast zutreffende Prognose twitterten. Die Betonung liegt auf fast.

Denn jetzt ist klar: Woher auch immer die Beiden ihre Infos hatte, die Weisheit der Vielen wusste es besser. Oder genauer, die Leser der „Saarbrücker Zeitung“.

Stolz verkündet die Holtzbrinck-Zeitung via Pressemitteilung: „Bei der aktuellen Landtagswahl im Saarland lagen die Online-Nutzer von www.saarbruecker-zeitung.de über alle Parteien hinweg nur 7,6 Punkte neben dem amtlichen Endergebnis. Die ARD (Infratest Dimap) verfehlte das Ergebnis um 13 Punkte, die ZDF-Prognose der Forschungsgruppe Wahlen lag 9 Punkte abseits. Auch bei der Bundestagswahl 2002 hängte die SZ-Wahlwette die Profis ab – nur Forsa war
seinerzeit etwas besser.“

Weisheit der Vielen schlägt Twitter Prognose Verrat

Als Erklärung für das gute Gruppen-Ergebnis nennen die Saarbrücker die sogenante „Weisheit der Vielen“. Der Begriff basiert auf einem Buch von James Surowiecki. „Er argumentiert darin, dass die Kumulation von Informationen in Gruppen zu gemeinsamen Gruppenentscheidungen führen, die oft besser sind als Lösungsansätze einzelner Teilnehmer“, erklärt Wikipedia.

Im Fall der Landtagswahl funktionierte Surowieckis Theorie. Zur Bundestagswahl soll der Versuch wiederholt werden.

Juli 13th, 2009 by ethority - Social Media Intelligence Team

Für viele sind Tagclouds (Schlagwortwolken) oder ihre allgemeinere Form der Wordcloud nicht viel mehr als eine ästhetisch ansprechende Spielerei. Das hängt sicher auch davon ab, dass solche Häufigkeitsauszählungen von signifikanten Begriffen (denn darum handelt es sich eigentlich) mittlerweile nicht mehr reine Wortlisten sind, sondern wie kleine Kunstwerke aussehen: mit unterschiedlichen Schrifttypen, Formaten, Schreibrichtungen, wenn nicht sogar als dreidimensionale interaktive Objekte.

Meine erste Begegnung mit Tagclouds kam – wahrscheinlich bin ich da kein Einzelfall – mit der Social-Bookmarking-Plattform del.icio.us bzw. der Fotoplattform Flickr. Die Tagclouds waren damals der hübsche Zwilling der Folksonomy. Dieser Kunstbegriff von Thomas Vander Wal verbindet die Weisheit der “einfachen” Leute (”folk”) mit dem Ordnungsstreben der Taxonomen. Folksonomien sind ein Paradebeispiel für eine der soziologischen Grundweisheiten – nämlich der Entstehung von Kollektivtatsachen durch das unkoordinierte Handeln Einzelner. Die Folksonomy, die durch das Verschlagworten eines Bildes durch viele unterschiedliche Nutzer entsteht, ist mehr als die Summe ihrer Teile, denn sie stellt die Wissensordnung einer Gruppe oder Masse dar.

Auf einzelne Texte angewendet, können Wordclouds auch als analytisches Instrument verwendet werden, das einem ermöglicht, einen Überblick über einen Text oder einen Textcorpus aus mittlerer Flughöhe zu gewinnen. Insofern überrascht es nicht, dass die qualitative Internetforschung dieses Instrument ebenfalls für sich entdeckt hat. Robert Kozinets, der Nestor der Netnography, stellt zwei Arten der Textanalyse gegenüber: Auf der einen Seite die immer ausgeklügelteren wortbasierten Analysen, in denen Texte in ihre einzelnen semantischen oder syntaktischen Atome zerlegt und vermessen werden. Auf der anderen Seite die sehr viel intuitivere und holistische Erfassung einer großen Textmenge durch Wordclouds (”diddling with the doodling”) wie zum Beispiel für die Reden von Barack Obama und Hillary Clinton letzten Dezember.

Natürlich sind diese Begriffswolken immer auch bis zu einem gewissen Grad Spielerei. Aber Kozinets ist überzeugt, dass richtig eingesetzt sehr viel mehr dahinter steckt:

In the play, in that visual appeal, I think there is something deeper that can happen. Because we get some good analysis packed into an at-a-glance form, I think we have opportunities to use that ultimate piece of ’software,’ the human mind and imagination, to glean insight from these word pictures. We can run poetic comparisons on these scrambled word omelets. And then we can use them to launch creative inquiries into the text. Delving deeper using all our other tools, from content analysis word counts to hermeneutic mindful deep breathing.

Für uns im ethority-Lab spielen beide Ansätze eine große Rolle, doch die spannendsten Einblicke ergeben sich oft aus der Kombination von analytischem und holistischem Vorgehen. Zum Beispiel wenn ein Textcorpus (etwa die Außendarstellung eines Unternehmens oder einer Partei in ihren Pressemitteilungen) ein ganz anderes Bild ergibt, je nachdem ob man den Gesamteindruck in Gestalt einer Wordcloud auf sich wirken lässt oder ob man die Texte in ihre Bestandteile zerlegt und im Detail analysiert. Auch die Gegenüberstellung von Titel und Abstract auf der einen und Wordcloud auf der anderen Seite kann zu interessanten Ergebnissen führen.

Eine sehr schöne Anwendung habe ich bei Christoph Koch gefunden, der die Wahlprogramme der Parteien nicht nur als Wordclouds dargestellt hat, sondern auch noch jeweils einen Claim daraus extrahiert hat. Dies sind also die “heimlichen Überschriften” der Bundestagswahlprogramme:

  • CDU/CSU: “Menschen müssen Deutschland mehr fördern!”
  • SPD: “Menschen müssen dafür mehr Arbeit!”
  • FDP: “Freiheit mehr Deutschland!”
  • Bündnis90/Grüne: “Brauchen deshalb neue Menschen!”
  • LINKE: “Frauen müssen Unternehmen sichern! Gesellschaft einführen!”
  • Piratenpartei: “Bürger müssen Daten! Zugang fordern Schutz!”

Tagclouds als Forschungsinstrument
Man kann die Texte noch weiter verdichten und jeweils das Kernkonzept der Parteiprogramme herausarbeiten:

  • “Deutschland” für die CDU
  • “Mehr” für die SPD – interessanterweise spielt im SPD-Programm der Begriff “SPD” nur eine untergeordnete Rolle. Neue Bescheidenheit? Auch die Begriffe auf dem Titel des Wahlprogramms “Sozial und demokratisch” tauche nur selten auf.
  • “FDP” für die FDP
  • “Menschen” für die Grünen
  • “LINKE” für Die Linke – in diesem Punkt eine interessante Parallele zur FDP, die ebenfalls den eigenen Namen in den Mittelpunkt stellt
  • “Bürger” für die Piratenpartei

April 26th, 2009 by ethority - Social Media Intelligence Team

Das Umfeld der nutzergenerierten Plattformen wird auch in Deutschland immer mehr zu einem meinungsbildenden Medium. Millionen von Usern in Deutschland tauschen täglich Meinungen, Informationen und Stimmungen auf Blogs, Twitter, Foren und Social Networks aus. Neben vielen anderen Themen werden natürlich auch Prominente besprochen. Diese Promigespräche waren die Grundlage der aktuellen Studie von ethority. Für diese Erhebung wurden rund 100.000 Usermeinungen zu 240 Prominenten auf Blogs, Foren und Twitter ausgewertet. Die Ergebnisse waren eindeutig. Madonna ist der meist besprochenste Promi im deutschen Internet. Die Kehrseite des Erfolgs – es ist überwiegend negativer Buzz. Doch besonders schlecht bei den deutschen Internetusern kommen die Beverly Hill Girls Paris Hilton und Lindsay Lohan weg. Ebenso schlecht schneiden die britische Sängerin Amy Winehouse und Britney Spears ab. Ein besonders gutes Image bei den deutschen Nutzern hat post mortem der australische Schauspieler Heath Ledger, dicht gefolgt von der britischen Schauspielerin Kate Winslet.

Der Tod steht ihm gut und keiner mag Paris   ethority Promi Buzz Barometer

Was für Marken und Unternehmen gilt, trifft genauso für Personen des öffentlichen Lebens zu. Das bekommen auch die Stars zu spüren. Durch die nutzergenerierten Medien sind die User nun in der Lage jeden Schritt und Tritt ihrer Idole zu kommentieren. Viele Prominente entdecken daher dieses Medium immer mehr für ihren Dialog mit den Fans. So twittern zum Beispiel Rainer Calmund oder Britney Spears und Paris Hilton hat ihren eigenen Youtube Channel. Im Fall Paris Hilton scheint das ihrem Image bei den deutschen Usern nicht wirklich zu helfen. Besonders im Bezug auf ihre Person haben die User einiges zu bemängeln. Besonders kritisch werden ihre öffentlichen Auftritte kommentiert. Darüber hinaus kritisieren die deutschen Internetnutzer häufig die Gesangs- und Schauspielleistungen der Milliarden Erbin. Bei dem Imagewinner fällt der größte Anteil der positiven Meinungsäußerungen auf seine Rolle des Bösewichts Joker in der aktuellen Batman Episode.

Der Tod steht ihm gut und keiner mag Paris   ethority Promi Buzz Barometer

weitere Infos gibt es hier

November 5th, 2008 by ethority - Social Media Intelligence Team

Das Internet ist zu einem zentralen Medium für Kaufentscheidungen geworden. Eine Studie der ethority GmbH & Co. KG, des Bundesverbands Digitaler Wirtschaft e.V. und des HighText Verlags verifiziert Markenpräsenz im deutschsprachigen Web 2.0 und belegt, dass deutschsprachige Internetnutzer am liebsten Online Foren nutzen, um sich über Marken auszutauschen.

Die konsumentengenerierten Medien im Internet sind ein elementares Feld erfolgreicher Marketingkampagnen geworden. Die Mediennutzung aller Zielgruppen verändert sich zu Gunsten dieser kollaborativen Online-Medien. Marketingverantwortliche müssen dieser Entwicklung folgen. Die Resultate der Studie Brands in Social Media zeigen, wie wichtig es für Unternehmen auf dem deutschen Markt ist, die Kommunikationskanäle des Web 2.0 in ihre Verkaufs- und Werbestrategien mit einzubeziehen.

Die Studie Brands in Social Media 2008-2009 untersuchte im Zeitraum von August bis September 2008 ca. 1.100.000  Meinungsäußerungen in Weblogs, Foren, Microblogging Diensten, Social Networks und auf Videoplattformen. Für diese Buzz-Analyse wurden authentische Nutzeräußerungen zu 550 Marken aus 10 verschiedenen Branchen klassifiziert. Diese Datenmenge wurde durch die ethority Crawler- und Klassifizierungstechnologie gridmaster® erhoben. Dabei wurde die Quantität der Markennennungen auf den jeweiligen Plattformen gemessen und wie stark sich die jeweilige Markenkommunikation auf die Kommunikationskanäle der konsumentengenerierten Medien aufteilt. Die Ergebnisse zeigen, dass Social Media ein zentraler Marktplatz für Markenempfehlungen sind. Dabei bilden Online-Foren das Epizentrum der Marken- und Produktempfehlung. Im Bezug auf die Quantität von Markennennungen sind Online-Foren der beliebteste Kommunikationskanal bei deutschen Internetnutzern. Diese große Menge der erfassten Äußerungen über alle Branchen hinweg, lassen auf ein überdurchschnittliches Markenbewusstsein in den konsumentengenerierten Medien schließen. Besonders intensiven Austausch über Marken führen im deutschsprachigen Internet die Auto-affinen Internetnutzer. Keine andere Nutzergruppe präsentiert sich derart performativ.

Sten Franke, Geschäftsführer von ethority, kommentiert die Ergebnisse wie folgt:

Die Resultate dieser Buzz-Analyse zeigen, wie wichtig Social Media heute für die Markenführung und Kommunikation aber auch für das Kundenbeziehungsmanagement (CRM) geworden sind. So sind durchschnittlich 43% aller markenbezogenen Gespräche für die Bildung einer Käufer-präferenz relevant. Im Bereich Telekommunikation ist jede dritte Verbrauchermeinung, im Bereich Food ist mehr als jede zweite Verbrauchermeinung eine Kaufempfehlung. Diese werden durchschnittlich von 400 bis 50.000 Usern gelesen. Die Frage, ob sich ein Unternehmen für oder gegen ein Engagement in diesem Bereich entscheidet, ist nicht relevant, denn tagtäglich werden von Verbrauchern in Millionen von Beiträgen Marken und Produkte empfohlen, diskutiert und inszeniert. Bis vor einem Jahr noch wurde dieses Phänomen als unkalkulierbare Größe angesehen und von Werbemachern und Marketingmanagern auch gerne übersehen. Gerade die kreativeren Macher dieser Zunft profitieren vom Nutzen der digitalen Mundpropaganda, um neue Produkte, Themen oder Marken ins Gespräch zu bringen und so über Weiterempfehlungen von steigenden Produktverkäufen zu profitieren. Andere wiederum messen in regelmäßigen  Abständen die Wahrnehmung oder den Erfolg von Kampagnen, um Kundenbeziehungen nachhaltig zu stärken oder Produkteigenschaften zu verbessern. Klar ist, Marketingver-antwortliche geben die Markenkommunikation nicht aus der Hand, sondern positionieren die Markenbotschaft aktiv in den konsumentengenerierten Kanälen, in der sich die Zielgruppe gerade jetzt tummelt. Dabei sollten Brands auch auf eine ganz elementare Regel im Bereich Social Media achten: im Web 2.0 soll nicht der Kunde die Marken finden, sondern die Marke muss den Kunden finden. Authentizität und Transparenz verhilft der Markenbotschaft, auf allen relevanten Kommunikationsplattformen in Social Media vertreten zu sein.

Die vollständige Studie ist zum Preis von 500 Euro erhältlich beim HighText Verlag, München. Hier geht’s zum Studienshop.

ethority Studie: Brands in Social Media

ethority Studie: Brands in Social Media

ethority Studie: Brands in Social Media