Feature
5
23.11.2018

Messebericht MWM2018 - Most Wanted: Music in Berlin

Am 7. und 8. November fand in diesem Jahr die Berliner Musikmesse MOST WANTED: MUSIC statt. Im Fokus standen die rasanten Entwicklungen in der Musik - und Kreativbranche. Neben musikwirtschaftlichen Themen ging es dabei vor allem auch um die neusten Technologien und deren praktische Anwendungsmöglichkeiten für Kreative. 140 Referenten aus der ganzen Welt kamen in die Hauptstadt um u. a. über Virtual-Reality-Trends sowie die aktuellen Entwicklungen am Streaming-Markt und im Musikmarketing zu diskutieren.

An zwei Tagen fanden auf fünf Bühnen in fünf verschiedenen Räumen mehr als 80 Vorträge, Podiumsdiskussionen und Workshops statt, die auf ein reges Interesse und große Beteiligung stießen. Ich war für euch vor Ort und hab mich auf der Konferenz umgesehen, zugehört und mitgemacht. Wie also die Zukunft in der Branche aussehen könnte und welche neuen Möglichkeiten es gibt, das erfahrt ihr in diesem Bericht.

Most Wanted: Music 2018

In diesem Jahr fand die Fachtagung das erste Mal in den Räumlichkeiten der Alten Münze, einem ehemaligen Münzprägewerk in Berlin-Mitte am Ufer der Spree, statt. Einen passenderen Ort hätte man für diese Veranstaltung nicht finden können. Das Gebäudeensemble "Die alte Münze" ist Zuhause für eine interdisziplinäre Gemeinschaft und steht für zukunftsgerichtete Umnutzung historischer Stadträume, in der es ein solidarisches Miteinander zwischen unterschiedlichen Projekten mit verschiedenen Ansprüchen und Möglichkeiten gibt. Seit einiger Zeit gibt es dort Raum für Kunst- und Kulturschaffende, junge Berliner Kreative sowie für verschiedene Veranstaltungsformate. Der industrielle Charme der Architektur mit gelegentlichem Spreeblick, die zentrale Lage in der Nähe vom Alexanderplatz und die verschiedenen Räume auf drei Etagen boten der Musikbranche für zwei Tage die perfekte Kulisse für interessante Begegnungen und Gedanken und um sich mit Zukunftsfragen und Visionen auseinanderzusetzen.

Gefallen hat mir auch die gut durchdachte Organisation der Konferenz. Es gab ein strukturiertes und übersichtliches Programm im Vorfeld und jeder Teilnehmer hatte die Möglichkeit, sich nach der Anmeldung online einen personalisierten Zeitplan zu erstellen, sich für Workshops anzumelden, mit Sprechern zu verabreden und ganz generell zum digitalen Netzwerken.

Tag 1

Dementsprechend gut vorbereitet bin ich am ersten Morgen um kurz nach zehn Uhr auf der MWM 2018 angekommen. Wie in Berlin typisch war allerdings noch nicht so viel los, dementsprechend entspannt war die Atmosphäre. Da ich für gewöhnlich so früh auch noch nicht am Start bin, musste ich mich zuerst noch mit Kaffee bewaffnen und habe daher leider die Eröffnungsrede der Konferenz versäumt. Aber für den ersten Vortrag, den ich mir vorgemerkt hatte, saß ich dann pünktlich und brav um 10.30 Uhr mit meinem iPad für Notizen im sonnendurchfluteten Loft im 2. OG:

Kepler, Concordia and The Future of Music

... ein Vortrag der NASA-Wissenschaftlerin und Musikinstrumente-Erfinderin Kelly Snook, stand auf dem Programm. Kelly hatte ich schon mal auf einer anderen Konferenz in Berlin kennengelernt, als sie zusammen mit Imogen Heap dort war, die damals noch total neuen MIDI-Handschuhe vorgestellt hat, an deren Entwicklung sie ja maßgeblich mitbeteiligt war. Falls ihr von diesem MIDI-Controller noch nichts gehört habt, mimu gloves heißen diese Handschuhe, mit denen ihr Musik und Video über eure Gestik steuern könnt. Auch Kelly hatte natürlich welche an, um damit ihre Präsentation zu steuern. In ihrem Vortrag stellte die junge Professorin auf unterhaltsame Art kurz sich selbst und dann ihr aktuelles Forschungsprojekt vor, ein Musikinstrument namens "Kepler Concordia". Das ist ein immersives Instrument zur wissenschaftlichen Erforschung, welches auf der Arbeit von Johannes Kepler basiert und die Möglichkeit bietet, die Musik der Sphären zu erleben und zu spielen. Wir können also damit in eine virtuelle Realität eintauchen und dort Klänge erzeugen. Dazu werden die modernsten Technologien von heute verwendet, um wissenschaftlich genaue Modelle unseres Sonnensystems zu erstellen, die zeitlich und räumlich skalierbar sind. Ihr befindet euch in eurem persönlichen Raumschiff, das im Weltall herumfliegt. Und dann seht und hört ihr nicht nur die Himmelskörper selbst, sondern auch komplexe geometrische Formen und Muster, die sich entwickeln, wenn ihr die Bewegung der Planeten untersucht. Ihr habt die Kontrolle und gebt eure Befehle durch physische und virtuelle Musiksteuerungen aus.

Stellt euch hierzu ein Mashup eines Cockpits, einen modularen Synthesizer und eine Wand mit Computersteuerelementen aus den 1960er-Jahren vor. Jeder Planet hat sein eigenes Bedienfeld mit großen Knöpfen – vielleicht sogar Lenkrädern Sämtliche Steuerelemente sind anpassbar. Wenn ihr keine Lust habt, das gesamte Cockpit zu bauen, könnt ihr auch einfach eine Tastatur oder ein Smartphone oder Tablet verwenden oder natürlich auch die mimu gloves. 

"Virtuelle Realitäten" wie hier bei dem gerade beschriebenen Projekt, "künstliche Intelligenzen", "Algorithmen" und vor allem "Boxchain", das waren auf jeden Fall die Hauptbegriffe dieser Musikkonferenz, die sich wie in ein roter Faden durch sämtliche Vorträge zogen und immer wieder von neuen Warten aus beleuchtet wurden. Ziemlich interessant war auch die anschließende Diskussionsrunde zum Thema

Streaming, Playlisten und Hörgewohnheiten - Chancen, Missverständnisse, neue Forschung und Alternativen

Streaming ist inzwischen allgegenwärtig und mit einem Umsatzanteil von 38,4 % zur größten Einnahmequelle der Musikbranche geworden. In einem Opening-Talk gab zunächst Dr. Jochen Steffens spannende Einblicke in seine Arbeit. Steffens ist ein Berliner Musikpsychologe und arbeitet als wissenschaftlicher Mitarbeiter und Dozent in der Audio Communication Group der TU Berlin. Seine aktuelle Forschung konzentriert sich darauf, wie wir Sound und Musik hören und wie wir das Musikverhalten im Zeitalter von Streaming- und Empfehlungsdiensten vorhersagen und verstehen können. Er interessiert sich außerdem dafür, wie das Musikhören unser Wohlbefinden sowie emotionale, kognitive und Verhaltensprozesse beeinflusst. Einige Ergebnisse seiner Studien stellte Dr. Steffens vor. z. B. das Musikhörern eher bekannte Songtitel und leicht eingängige Namen und Titel auswählen und diese auch als "besser bewerten" als Musikstücke mit sperrigen Titeln von Bands mit komplizierten Namen, auch wenn sich "dahinter" exakt dieselbe Musik verbirgt. Auch scheint bei der Wahl von Musik nicht unbedingt der persönliche Geschmack das Hauptauswahlkriterium zu sein. Viel stärker ist der Einfluss der jeweiligen Situation, sprich das "Warum" hören wir Musik (u. a. zum Munterwerden, zum Runterkommen, usw.).

Anschließend diskutierte die Flux-FM-Moderatorin Nadine Kreutzer mit Dr. Steffens und zwei weiteren Gästen, der Managerin Anne Junker, verantwortlich für die strategische Markenführung der Warner-Music-Playlist-Marke Topsify und Karl Goedicke, Produzent, Labelbesitzer, DJ sowie Musikchef und Gründer von BLKCH Records.

Dies ist eine Plattform, die die Definition von Labels als "Label as a Service" neu erfindet, um Musikern dabei zu unterstützen, ihre Kataloge in die Blockchain zu integrieren, darüber, wie wir zukünftig Musik finden und konsumieren werden. Goedicke kritisierte die immer zunehmende Gleichförmigkeit und Beliebigkeit von Musikproduktionen und machte die Kommerzialisierung von Playlisten dafür verantwortlich. Er warnte davor, dass junge Menschen in Zukunft keinen eigenen Geschmack mehr entwickeln würden und keine Muße mehr hätten, selbst Musik zu entdecken, da ihnen der Algorithmus ja bereits alles vorgäbe.

Dr Steffens wies darauf hin, dass nicht die Algorithmen die Übeltäter, sondern die jeweilige Motivation, die dahintersteht, das Entscheidende seien. Schließlich geht es einzig und allein darum, Hörern zu binden. Während früher noch Verkaufszahlen kommerziellen Erfolg ausmachten, seien es heute Playlisten. Anne Junker von Warner erklärte, dass die ersten 30 Sekunden eines Songs darüber entscheiden, ob Hörern gefesselt werden und bleiben. Alternativ wurde Blockchain als das System der Zukunft betrachtet, wo nicht mehr Majors als zentrale Plattform alles steuern und kontrollieren.

Genau darum ging es u. a. auch im anschließenden Talk:  

State of the Union – New Technologies For Artists And The Creative Industries

Auf der Bühne stand ein Mann, der lange Zeit u. a. als Head of Business Affairs bei Warner Music tätig war und inzwischen eine marktführende Digital Media & Brand Entertainment-Gruppe gegründet hat. Cliff Fluet berät große Unternehmen, Marken und Investoren bei digitalen Innovationen und mit bringt sie auf dem neuesten Stand von Musik und Technologie, insbesondere in den Bereichen Sharing Economy, Social Video, Internet der Dinge, Künstliche Intelligenz und Blockchain. Er begann seinen Vortrag mit einer Demonstration und "I Want You Back" von "The Jackson Five". Fluet demonstrierte nämlich eine neue App, mit der sich jeder beliebige Musiktitel vom Style her verändern und sich damit der jeweiligen Situation anpassen lässt. Er zeigte diese anhand der bekannten Nummer "I Want You Back", die er zunächst im Original anspielte und dann als grooviges Hip-Hop-Stück und im nächsten Moment als ultra-smoothe Slowmotion-Ambient-Nummer präsentierte. Die – ich nenne es mal "Verwandlung der Musik" – fand in Echtzeit statt, und zwar ohne hörbare Übergänge oder Wackler. Künstliche Intelligenz zum Remixen.

Das Publikum schien verblüfft, wenn auch nicht unbedingt begeistert. Danach sprach Cliff Fluet über die erfolgreichsten Firmen des Internets (Google, Netflix etc.) und zeigte auf, was genau das Geheimnis ihres Erfolges ist: Technologie als Geschäftsgrundlage! Das heißt: "Analyse, Algorithmus und Adaption = Erfolg". Dann erklärte er in wenigen Worten, warum die Blockchain nicht nur für die Finanzwelt und für die Musikbranche, sondern für die gesamte Menschheit eine der größten Erfindungen überhaupt sei und nannte ihre drei wesentlichen Merkmale: Sie sei dezentralisiert, demokratisch und dynamisch. Daraus ergäben sich ganz neue Möglichkeiten z. B. für die Entwicklung von Soft-und Hardware im Musikbereich.

Als Beispiel nannte er u. a. Volareo, das ist ein Blockchain-betriebener Lautsprecher. Auch für die Selbstvermarktung von Musikern biete die Blockchain ganz neue Optionen, angefangen vom Management, über Streaming bis hin zur Distribution. "Künstliche Intelligenz und Immersive Entertainment" war das Schlussthema von Cliff Fluet und hier zeigte er in atemberaubenden Tempo Webseiten, die es sich aus seiner Sicht anzuschauen lohnen wie z. B. AI-Jukedeck, Rotor und The WaveVR. Im Anschluss stand ein Expertentalk zum Thema

Opportunities and Challenges of Artificial Intelligence & Blockchain For The Music Industry

in meinem Schedule. Leider war die Kuppel, der Raum, in dem dieser Talk stattfand im Verhältnis zu dem großen Ansturm viel zu klein und somit hatte ich, wie viele andere Interessierte auch, keinen Zutritt mehr. Also bin ich wieder rüber ins Loft und habe mir stattdessen "Surviving & Thriving - Wellness in Electronic Music " angehört: Mit Druck umzugehen, Burnout zu verhindern und in schwierigen Zeiten fertig zu werden, das sind Herausforderungen, vor denen wir ja alle stehen. Vor allem für erfolgreiche DJs und Künstlern ist das ein wichtiges Thema, denn auf der einen Seite müssen diese Spitzenleistungen erzielen und gleichzeitig ihr körperliches und psychisches Wohlbefinden erhalten. Auf der Bühne tauschten sich zu diesem Thema zwei erfahrene Frauen aus: Dipl.-Psych.

Franziska Koletzki-Lauter stand von 2009 – 2014 selbst hauptberuflich als Musikerin und Produzentin ("Oliver Koletzki & Fran", "Fran Solo") auf der Bühne und war weltweit auf Tour unterwegs. Seit vier Jahren arbeitet sie u. a. mit zahlreichen erfolgreichen Musikern, DJs, Musikproduzenten, Schauspielern und YouTubers zusammen. Ihr Ansatz verbindet Neurowissenschaft, Tiefenpsychologie und Achtsamkeit. Gesprächspartnerin war DJ, Produzentin, Labelchefin und Radio-Fritz-Moderatorin Anja Schneider aus Berlin. Beide Frauen erzählten aus ihrer Praxis und von ihren Erfahrungen. Anja gab an, dass sie darauf achte, dass sie vor ihren nächtlichen Gigs ausreichend Schlaf erhält und daher auf Abendessen und Trinken mit Freunden und Socialising vorm Gig verzichtet. Da sie außerdem noch Mutter ist, sei ihr Leben sehr strukturiert und es seien letztendlich vor allem ihre Kinder und ihre Familie, die ihr dabei helfen, auf dem Boden der Tatsachen zu bleiben. Auch ist es ihrer Meinung nach von Vorteil, wenn man schon eine gewisse Reife hat, wenn sich Erfolg einstellt. Da sei man dann weniger dafür anfällig, sich in dem ganzen Tumult zu verlieren.

Die Rolle von Influencern in der Musik

Ob durch Snapchat, Instagram, TikTok, YouTube oder Facebook – Influencer (Warum muss ich bei diesem Wort nur immer an einen Grippevirus denken ...?) können heutzutage die öffentliche Meinung entscheidend beeinflussen. Aber was macht Influencer aus und welche Möglichkeiten bieten sie für die Vermarktung von Musik? Wie müssen Kampagnen gestaltet sein, damit sie auch wirklich funktionieren und was kann man aus anderen Branchen lernen? Über verschiedene Herangehensweisen und Chancen, die Influencer dem Musikbereich bieten, diskutierten am Nachmittag Experten mit unterschiedlichen Haltungen. Anne Kammerzelt, die den Talk moderierte, ist Content-Kuratorin. Neben der Formatentwicklung für verschiedene Medien wie TEDx und das Zukunft Magazin hat sie für das Tech Open Air, der Berlin Music Commission und das media:net Inhalte an der Schnittstelle von Musik und Technologie entwickelt und umgesetzt. Als Influencer war Mandy Capristo eingeladen, seit Jahren eine der erfolgreichsten und populärsten Sängerinnen Deutschlands mit Millionen verkauften Tonträgern. Die Deutsch-Italienerin gilt als musikalische Identifikationsfigur und stilsichere Fashionikone.

Andre Hofer verdankt Personen wie Mandy seinen Job. Andre ist erster Influencer Relations Manager von Universal Music und Experte, wenn es darum geht, für jeden Musiker den perfekten Partner zu finden. Der letzte im Bunde war Felix Hummel, Mitbegründer und CEO von BuzzBird einem Multi-Plattform-Influencer-Marketingunternehmen, das Marken mit Influencern verbindet.

Die Personen auf der Bühne waren alle eher einig Pro-Influencer und sie fanden es auch nicht verwunderlich, dass dies mittlerweile ein von vielen jungen Menschen angestrebter Berufswunsch sei. Schließlich sei dieser Job, wenn alles gut läuft, ziemlich lukrativ. Die vom Publikum ausgehende Kritik, dass man sich für Marken einkaufen lasse und als Werbefigur auftrete und seine Follower damit zum Konsum ermutige, wurde mit dem Argument ausgehebelt, dass Personen der Öffentlichkeit schon immer auch Werbung gemacht hätten. Die von allen Seiten gepriesene Authentizität als Erfolgsfaktur, stieß dem eher kritischen Publikum als abgedroschene Phrase auf. Ob einem das nun gefällt oder nicht, es gibt sie, die Influencer, die mit Social Media, warum auch immer, viele Menschen bewegen und begeistern. Und in Zukunft werden es wohl noch mehr ...

Object-Based Audio Futures

Was vom Titel her erst mal recht abstrakt klingt, stellte sich im Nachhinein als einer der für mich spannendsten Beiträge dieser gesamten Konferenz heraus. Redner war ein Mann namens Ian Forrester aus Manchester, eine bekannte und wie ich finde ziemlich sympathische Figur der digitalen Szene in Großbritannien. Er arbeitet für die R & D Future Experiences der BBC und ist auf "Open Innovation und neue disruptive Möglichkeiten" spezialisiert.

Disruptive Innovationen brechen etablierte Märkte auf und verändern somit die Spielregeln ganzer Branchen. In diesem Fall ging es um Broadcasting. In seinem kurzen Vortrag gab Ian Forrester ein paar Impulse, wie in Zukunft Film, Podcast und Rundfunk neu gedacht werden könnte. Er schlug vor, die bisherigen besten Erfahrungen und Kenntnisse aus dem Broadcasting mit den neusten Technologien zu verbinden. Forresters aktuelle Forschung beschäftigt sich mit dem Bereich des Erzählens mit einer Technologie, die er als "Perceptive Media" bezeichnet. Gemeint sind damit personalisierte Videos oder Podcasts, die auf eure Persönlichkeit und auch auf eure Vorlieben reagieren.

In einem Drama z. B. würden unter anderem die Erzählung und die Hintergrundmusik in Echtzeit auf euch abgestimmt werden. Das nennt man Visual Perceptive Media, also ein Film, der sich je nach der Person ändert, die das Video betrachtet. Dazu werden profilierte Daten angewendet, z. B. über euer Smartphone, um dann anhand eurer Musiksammlung und einigen Persönlichkeitsfragen ein Profil von euch und euren Vorlieben zu erstellen. Diese Daten werden dann genutzt, um in die Handlung des Films einzugreifen und darüber zu informieren, welche Assets in welcher Reihenfolge verwendet und welche Echtzeiteffekte wann angewendet werden.

Auch im Audiobereich wird von Forrester und seinem Team im BBC-Labor dazu geforscht. Er demonstrierte dazu eine Art Digitalradio, eingebaut in einem Gerät, was eher nostalgisch anmutete und an die ersten Rundfunkgeräte erinnerte. Der Clou bestand jedoch darin, dass dieses Radio, ähnlich wie unsere Smartphones, mit lauter Sensoren versehen war, die z. B. Faktoren wie Licht, Temperatur, Tageszeit oder ähnliches wahrnehmen können und dementsprechend verändert sich dann der Content.

Adaptive Audios nennt man sowas. Podcasts, die auf Sensordaten zugreifen, um die Umgebung zu profilieren und dann die jeweiligen Audiodaten anzupassen. Programmiertechnisch lässt sich das relativ einfach z. B. mit Smil umsetzen. Uns stehen also neue Medienerlebnisse bevor. Ian Forrester hatte leider nur 25 Minuten Zeit, daher konnte er das Thema an dieser Stelle nur kurz und grob umreißen. Ich war so dermaßen fasziniert, dass ich an diesem Tag nichts Neues mehr auf der Konferenz hören wollte. Stattdessen habe ich mich prompt für seinen Workshop am nächsten Morgen angemeldet. 

Perceptive Podcasting: Revolutionising Podcasting And Audioexperiences Just For You

... so der vielversprechende Titel des Workshops. Ich muss gestehen, als mein Wecker morgens klingelte, war ich doch sehr verleitet, liegen zu bleiben und ich bin sehr froh, dass ich mich trotzdem aufgerafft habe. Eine kleine sympathische Gruppe von knapp 10 Personen und ein überaus inspirierender Ian Forrester machten diesen Vormittag zu einem Erlebnis.

Forrester nahm den Faden von seinem Vortrag vom Tag zuvor wieder auf, da nicht alle Teilnehmer dort waren und erklärte erneut und begeistert sämtliche Möglichkeiten, die sich uns eröffnen würden, wenn wir statt gewöhnlicher Abspielgeräte für Medien in Zukunft komplett auf "Smart Devices" umstiegen. In Bezug auf adaptive Audios und perceptive Podcasts schienen zwei Dinge für den Mann, der so Spannendes im BBC-Labor erforscht, essentiell:

1. "Content ist King", das heißt, es kommt immer noch auf den Inhalt an, und

2. "Masterful Audio Editing" – der Schnitt gilt als das wesentliche Stilmittel der Erzählkunst!

Blieb nur noch die Frage: Und wie funktioniert das dann technisch? Für diesen Teil blieb leider nicht mehr sehr viel Zeit. Aber immerhin, in einem kurzen Praxisteil präsentierte uns Forrester die Betaversion einer Software, die von seinem Team in Manchester entwickelt wurde und dort bei der BBC im Lab genutzt wird. Glücklicherweise habe ich u. a. gelernt HTML-Codes zu lesen und zu schreiben. Das kam mir in diesem Fall sehr zu Gute, um auch noch dem letzten Drittel des Workshops zu folgen.

Die meisten Podcasts werden üblicherweise als Zipdatei mit XML veröffentlicht, und dann könnt ihr diese, falls ihr einen RSS-Channel abonniert habt, über euren Feed runterladen. Ian und seine KollegInnen nutzen zudem Smil, kurz für "Synchronized Multimedia Integration Language", eine Sprache, die bereits Ende der 90er-Jahre zum Einsatz kam. Mit Smil lassen sich relativ leicht Befehle geben, wann z. B. welche Audiofiles aus einem Podcast starten sollen. Leider funktioniert die BBC-App bislang nur auf einem Android-Phone und die Version war in der Tat ziemlich "beta". Trotzdem haben alle Teilnehmern einen guten Eindruck bekommen, was in Zukunft möglich ist und vor allem, wie das technisch auch umgesetzt werden könnte. Für alle, die gern Geschichten erzählen, öffnen sich hier plötzlich ganz neue Türen ...

Da ich speziell von diesem Aspekt des Erzählens fasziniert war, habe ich mich im Anschluss noch mit Ian unterhalten. Die Software soll vermutlich als Open Source irgendwann im nächsten Jahr veröffentlicht werden. Dann könnten Programmierer das Tool sowohl optisch als auch von der Funktionalität so auf Vordermann bringen, dass es auch tatsächlich als Podcastwerkzeug genutzt werden kann. Und was das Geschichtenerzählen der Zukunft anbelangt, hat Mr Forrester mir einige Webseiten genannt, die zur weiteren Inspiration dienen können wie z. B. Tripfiction in Bezug auf Location-based Storytelling oder diese Community , die sich über Github zum Thema "Schreiben für Perceptive Media" austauscht.

Für diejenigen unter euch, die mit digitalen Instrumenten musizieren oder mit Controllern jeglicher Art arbeiten, auflegen etc. und bislang aufgrund der Haptik mit der Handhabung unzufrieden waren, wäre sicher der folgende Beitrag lohnenswert gewesen. Aber ich kann ja auch für euch zusammenfassen. 

Touch The Music – Enhancing Future Digital Music Devices through Haptic Feedback

Ein interessanter Vortrag von Dr. Stefano Papetti, einem wissenschaftlichen Mitarbeiter am Institut für Computermusik und Tontechnik der Hochschule der Künste in Zürich und Charalampos Saitis von der Audio Communication Group der Technischen Universität Berlin, der damit begann, dass bei Forschungsexperimenten herausgekommen sei, dass selbst Profipianisten oder Profiviolinisten einen Steinway-Flügel oder eine Stradivari nicht nur am Sound erkennen können. Erst beim Spielen des jeweiligen Instruments, werde es anhand der Haptik in Kombination mit dem Klang erkannt.

Wie sich ein Instrument anfühlt, sei also mindestens genauso bedeutend. Experten sprechen hier von vibrotaktiler Sensation und Force Feedback, beides auch bekannt als haptische Signale und wichtige Aspekte des Musikspielens und Hörens.

Wenn wir vom neuen TRAKTOR KONTROL S4 mal absehen, der es Dank einer speziellen Haptic Drive Technologie möglich machen soll, das Mixen zu fühlen, werden haptische Signale bei der Gestaltung digitaler Instrumente und Schnittstellen noch nicht voll ausgenutzt. Aktuelle Designs bieten zwar normalerweise eine berührungsvermittelte Interaktion, bieten jedoch keine natürliche physische Erfahrung, da ihnen im Allgemeinen keine sinnvollen haptischen Elemente zur Verfügung stehen. Eine weitere Ausnahme ist da das Yamaha N1 AvantGrand Hybrid Piano, was, dank eines perfekten Zusammenspiels akustischer und digitaler Technologien vom Spielgefühl her ganz nah an die sensibel reagierende Mechanik eines echten Konzertflügels heranreichen soll.

Dr. Stefano Papetti und Charalampos Saitis haben zu diesem Thema ein Buch verfasst, in dem sie eine Reihe multidisziplinärer Perspektiven auf die Rolle haptischer Interaktion in Musikperformance und Erfahrung zusammenbringen: von der Touch-Biomechanik über die multisensorische Wahrnehmung bis hin zu haptischen Technologien und Design. Die beiden Wissenschaftler sind davon überzeugt, dass mit Hilfe der neuen technologischen Möglichkeiten nicht nur die Benutzererfahrung und -leistung, sondern vor allem die Zugänglichkeit für behinderte Personen verbessert werden können. Als Beispiel nannten die zwei u. a. das Projekt "Touchbox", eine DIY-haptische Schnittstelle für fingerbasierte Interaktion.

Das Buch von Dr. Stefano Papetti und Charalampos Saitis heißt "Musical Haptics" und ist als Hardcover im Springer Verlag erschienen. Dort gibt es die 290 Seiten auch als eine kostenlose E-Book-Variante zum Download, z. B. als PDF. Ziemlich interessant!

Nach so viel Inspiration und Information war das Lunch in der Galerie ein wunderbarer Anker – die orientalische Gemüsepfanne ein Gedicht und die Erkenntnisse vom Caterer bei der Essensausgabe: "Ich glaube, mehr als 80 % sind hier vegan! Gemüse ist gleich schon wieder aus und keiner will das Gulasch!" amüsant. Zum Nachtisch gab es dann ein paar knackige Algorithmen von und mit Alex Jacoby , einem ehemaligen Musikproduzenten, der inzwischen mit AI, Big Data und exponentiellen Technologien arbeitet. Seine Firma "Alex Jacobi Audiovisual Intelligence" entwickelt Algorithmen, die den emotionalen Einfluss und die psychologische Wahrnehmung von Stimmen und Musik sowie Werbespots vorhersagen.

Als Betreiber von Sprechersprecher.de, einer sehr erfolgreichen Sprecheragentur, findet Jacoby mit Hilfe von künstlicher Intelligenz die perfekte Stimme für seine Kunden aus seiner Datenbank. Außerdem produziert der findige Spezialist einige hörenswerte Podcasts, wie z. B. "With Love and Data", in dem er mit vielen spannenden Gästen sein Lieblingsthema "Die Kooperation zwischen Mensch und Maschine" erörtert und erforscht. Fuck AI – How To Rescue Creativity with Love and Data so lautete der provokante Titel seines ziemlich unterhaltsamen und informativen Vortrags.

Alex Jacoby erklärte mit Hilfe von Katzen und Bananen, bzw. einer "Katzenerkennunsgmaschine", die eben nur zwischen "Katze" und "keine Katze" unterscheidet, jedoch keine "Bananen" identifizieren kann, auf sehr einfache Art die Funktionsweise von "künstlicher Intelligenz". Falls jemand im Publikum saß, der zu den Menschen gehört, die Angst vor der eigenständigen Kreativität von AI haben und die Entwicklung artifizieller Intelligenzen daher bislang eher besorgt beäugt haben, der wurde von Jacoby auf sympathische und schlagfertige Art davon überzeugt, warum AI, zumindest nach dem heutigen Stand der Wissenschaft, nicht kreativ sein kann.

"Malen nach Zahlen", so Alex, "ja! Kreativ ? Nein, nicht in nächster Zeit! Maschinen unterstützen Kreativität!" Davon ist der umtriebige Jacoby überzeugt. In seiner Arbeit konzentriert er sich schließlich u. a. darauf, kreative Prozesse mit künstlicher emotionaler Intelligenz zu steigern. Ich hab mich mit Alex Jacoby unterhalten, weil mich speziell seine Stimmforschungen sehr interessiert haben und er hat mir abschließend noch ein cooles Tool namens Sonarbird gezeigt, mit dem ihr supersimpel und schnell einen eigenen Podcast aufnehmen und hochladen könnt.

Nach einer kurzen Kaffeepause stand dann für mich das große Thema VR auf dem Programm. Über Virtual Reality hatte ich mir schon lange keine Gedanken mehr gemacht und war überrascht, wie präsent das Thema auf der Konferenz war. Um mich auf den neuesten Stand zu bringen, habe ich mir daher zum Abschluss die Session How To Make And Love Music With Immersive Media angesehen und angehört und war ganz angetan von den neuen Welten, die sich hier auftaten. Moderator Tim Rittmann leitete kurz das Thema ein und übergab dann das Wort an Muki Kulhan. Muki ist eine preisgekrönte Produzentin und betreibt ihre eigene digitale Produktionsfirma "Muki-International", die digitale Strategien, Social / Live-Inhalte und umfassende Erfahrungen für Künstler, Labels, Marken und Rundfunkveranstalter produziert. 

Als Digital Exec für BBCs "The Voice UK" produzierte sie u. a. "Virtual Voice", die allererste "Serie" von 360° VR. In ihrem Talk plauderte die erfolgreiche Produzentin aus ihrem Erfahrungsschatz und stellte jede Menge aufregende und aktuelle "Immersive Media"-Projekte und Produkte vor, darunter "Consequences" vom UK-Grime-Rapper Harry Shotta, eine "Location-basierte Augmented Reality Experience", die erst kürzlich beim Future of Storytelling Award in New York vorgestellt und für besondere Innvoation ausgezeichnet wurde; die afrofuturistische Graphic Novel "Masters of The Sun: The Zombie Chronicles" der Black Eyed Peas und die dazugehörige AR-App für iOS und Android und das VR Konzert von Imogen Heap: 

Dann wurde kurz noch die momentane Situation der technischen Möglichkeiten erörtert. So wie es aussieht, gibt es bereits die Technologie, Live-Konzerte in VR zu erleben, als ob wir physisch da wären, und das könnte bald zu einer weit verbreiteten neuen Art der Interaktion mit Musik werden. Neben 360°-Videos und Erlebnissen wie z. B. Live-DJ/VR-Partys mit virtuellem Dancefloor, auf dem in Echtzeit getanzt wird, sind auch AR (Augmented Reality) und MR (Mixed Reality) Begriffe, die zunehmend im Musikbusiness Einzug halten. Dazu gehören z. B. Hologramm-Konzerte, mit denen Tote sozusagen wieder von den Lebenden erweckt werden können. Für 2019 ist u. a. eine Amy Winehose Hologram World Tour geplant.

Nach diesem guten Überblick von Muki gab es zwei beeindruckende Livedemonstrationen, die aufzeigten, wie VR-Tools zum Erstellen und Arrangieren von VR-Musik aussehen und funktionieren können. Die erste Demo wurde präsentiert von Senne de Jong aus Amsterdam, CFO und einer der Gründer der Game Company Little Chicken. "Track Lab" so heißt die erste Anwendung, die Little Chicken auf der Sony Playstation VR-Plattform veröffentlicht hat, basierend auf einer originellen Idee von Senne, die vor etwa 20 Jahren auf der Kunsthochschule konzipiert und nun auf der MW:M2018 präsentiert wurde. Es handelt sich dabei um eine PS4-Anwendung, mit der im virtuellen Raum mit Hilfe von einem futuristischem Headset (Brille und Kopfhörer) sowie zwei spacigen LED-beleuchteten Joysticks und jeder Menge aktivem Körpereinsatz aus dem Stand all das gemacht wird, was wir sonst mit gewöhnlicher Software für Musikproduktion auch tun würden. z. B. Drum - Sounds auswählen, den Sequenzer damit bestücken und einen Beat loopen.

Von außen war das natürlich besonders amüsant zu betrachten, wie Senne de Jong da im scheinbar leeren Raum herumtrommelte. Da jedoch der Content von seinem Headset über einen Beamer nach außen projiziert wurde, konnten wir im Publikum sehen, was er als "der Spielende" gerade "erlebt". Hier in diesem Trailer von Track Lab könnt ihr euch einen Eindruck verschaffen, wie das in VR aussieht.  

Das Publikum war auf jeden Fall sicht- und hörbar begeistert, denn es gab für diese Präsentation einen rasenden Applaus. Die zweite Demo war total geeky und nerdig, was die optische Ästhetik anbelangte, aber inhaltlich nicht weniger spannend. Der Musiker und Sound-Artist Moisés Horta Valenzuela 'Hexerjsmos' aus Mexiko und der Maler und Programmierer Edo Fouilloux von Decochon demonstrierten ein VR-Tool, mit dem modulare Instrumente im virtuellen Raum gebaut werden können. Mit dem Sandbox Instrument MuX baut man sich mit Hilfe von Speakern, Oszillatoren und ähnlichem seine eigenen Soundquellen. Hier gibt es dazu noch weiterführende Infos sowie auch anschauliches Videomaterial.

Im Anschluss gab es noch eine Podiumsdiskussion, bei der die Meinungen noch sehr geteilt waren. Für die einen scheinen hier äußerst wertvolle neue Kreativwerkzeuge zu entstehen, die neues Erleben ermöglichen, während andere in VR-Audio und sämtlichen VR-Anwendungen vorerst nicht viel mehr sehen als spaßige Gimmicks. Mir persönlich ging es ganz ähnlich. Einerseits war ich total begeistert von all den neuen technischen Optionen, andererseits stellte sich aber auch die Frage: "Warum? Nur weil es möglich ist?" Und: "Brauche ich das?" Diese Frage muss sich letztendlich jeder selber stellen. Die Faszination der technischen Möglichkeit kann ja auch Motivation genug sein. „Ob das denn nicht total ungesund sei?", wollte noch jemand aus dem Publikum wissen und erntete einige Lacher. Dabei war die Frage berechtigt, schließlich haben wir gelernt, nicht so nah vorm Bildschirm zu sitzen und jetzt sollen wir uns den Schirm direkt über die Augen stülpen. Vermutlich muss das einfach jeder selbst ausprobieren! Eine eindeutige Antwort gab es darauf jedenfalls nicht.

Die letzten Tage waren für mich ziemlich inspirierend und ich hatte tolle menschliche Begegnungen. Außerdem sind viele neue Fragen aufgetaucht, die mich sicher noch eine Weile begleiten werden. Ob nun Virtual Reality, 360°-Videos, Hologrammkonzerte und räumliches Audio, wie z. B im Monom die Chance haben, die nächste große Revolution im Musikbusiness zu werden, das weiß ich nicht. Die Zukunft wird es zeigen. Wo Fragen sind, gibt es Antworten und wo Antworten sind, entstehen neue Wege. Auf der Most Wanted: Music 2018 in Berlin wurden einige dieser neuen Wege aufgezeigt. Jetzt heißt es weiter! Oder um es mit den Worten aus einem zeitlosen Hit von Egoexpress zu sagen: "Man Muss Immer Weiter Durchbrechen ..."

Verwandte Artikel

User Kommentare