Was ist JIVE Labs?
Die JIVE Labs sind ein “Labor für neue Denkwelten”. Bei öffentlichen Proben vor einem ausgewählten kleinen Publikum wird mit digitalen Tools und auch journalistische Themen experimentiert, die später auf noch größeren Bühnen in Berlin und im ganzen Land erlebbar werden sollen. Die Labs dienen also einer Erprobung neuer Vermittlungsarten gesellschaftlich relevanter Themen aus dem Kulturbetrieb mit digitalkünstlerischen Darstellungs- und Interaktionsformen.
Die Labs werden gemeinsam organisiert von der Headliner gUG und dem DOCKdigital. Bei unseren Shows wollen wir uns den digitalen Mitteln nämlich nicht versperren. Eine journalistische Zukunft ohne sie ist einfach undenkbar. Allerdings möchten wir die Tools nicht zur Rationalisierung des Journalismus einsetzen - wie es so oft geschieht -, sondern zu seiner Verbesserung.
Die zentralen Fragen der JIVE Labs sollen sein: Wie bindet man das Publikum ein? Wie befähigt man es dazu, sich in eine Debatte einzubringen und Teil einer Aufführung zu werden? Welche digitalen Feedback-Tools eignen sich dafür am besten?
Ziel der insgesamt fünf JIVE Labs bis Anfang 2025 ist es, bereits vorhandene Software künstlerisch sinnvoll zu nutzen - und neue Programme zu entwickeln, die die interaktive Einbindung eines Publikums bei Live-Veranstaltungen ermöglichen.
Durch die Labs wird eine digitale Selbstbefähigung auf mehreren Ebenen und für unterschiedliche Zielgruppen gefördert:
-
Die veranstaltenden Organisationen werden dazu befähigt, partizipativere Performances zu realisieren. Die Erkenntnisse dieses Prozesses werden anderen Akteur:innen in der Live-Kulturbranche zur Verfügung gestellt.
-
Gleichzeitig können die teilnehmenden Kunst- und Medienschaffenden neue Technologien ausprobieren und andere Ansätze für ihre Arbeit finden.
-
Zu guter Letzt erwirbt auch das Publikum eine neue Art der digitalen Mündigkeit. Es kann sich in aktuelle Debatten mit Akteuren aus den Bereichen Kunst, Kultur und Journalismus einschalten und diese mitverhandeln. Die Auseinandersetzung mit den Tools kann zum Abbau von Hemmungen und Hürden gegenüber Technologien führen, vor allem bei einem älteren Theaterpublikum.
JIVE Labs Termine
Nach intensiver Vorbereitung starten die ersten JIVE Labs im Herbst 2024.
Den Auftakt macht Eva-Lena Lörzer am 8. Oktober 2024 mit einer beeindruckenden AR-Installation zum Thema Demenz. In ihrer Reportage teilt die freie Printjournalistin persönliche Einblicke in den Krankheitsverlauf ihres Vaters – von den ersten Anzeichen bis hin zur fortschreitenden Erkrankung.
Dabei kommt die innovative Luma AI-Technologie zum Einsatz, bei der anhand von NeRF (Neural Radiance Fields) 3D-Ansichten von Objekten erstellt werden können. In unserem Projekt wird diese Methode genutzt, um Alltagsräume zu scannen und in immersive 3D-Videos umzuwandeln. Diese erscheinen fragmentiert und verzerrt - so, , wie Menschen mit Demenz ihre Umgebung häufig wahrnehmen. Durch den Einsatz der Technologie können wir diese veränderte Realität auf eine eindrucksvolle und visuelle Weise veranschaulichen und einem Publikum vermitteln.
Die weiteren Termine sind:
-
5. November
-
28. November
-
18. Dezember 2024
Alle Veranstaltungen finden entweder bei DOCK11, Kastanienallee 79, 10435 Berlin oder im Publix, Hermannstraße 90, 12051 Berlin statt.
Die Themen und eingesetzten Technologien werden vorab hier bekannt gegeben. Die Teilnahme ist kostenlos, jedoch auf eine begrenzte Anzahl an Plätzen beschränkt.
Bei Interesse schreiben Sie bitte eine E-Mail an info@headliner.eu.
DOCK 11 - diese soziale Skulptur ist in Berlin einzigartig: Es ist Raum für Tanz, Leben und Kommunikation in allen Lebensphasen. Aus einem Studio im Jahre 1994 sind heute bis zu 11 Studios und 2 Orte geworden, für Proben, Vorstellungen und Unterricht. DOCK und EDEN sind weltweit bekannte Ankerpositionen für Tanz, Tanzgeschichte und Tanzproduktion.
Das Team bringt Expertise und Erfahrungen an der Schnittstelle von digitaler Kunst und Performing Art mit und verfügt über die entsprechende Technik und die Räumlichkeiten. Während der Pandemie entstand so das DOCKdigital.
Wer ist unser Partner?
Welche digitale Kunst / Technologie könnte zum Einsatz kommen?
VR Experience
“Das Licht aus dem Osten”: Umsetzung einer historischen Kulisse im virtuellen Raum! Hier handelt es sich um eine visuelle Neuinterpretation von Werken aus den Bereichen Malerei, Literatur, Architektur sowie Theaterkunst zur Präsentation im VR-Raum. Zum Einsatz kommen “Real-time Facial Expressions Capture”, “Real-time full-body Motion Capture”, “KI generierte Body-Animation aus einer Videosequenz”, “Erstellung einer digitalen Kopie einer realen Person” und “Charaktererstellung auf der Grundlage dokumentarischer Fotografien und Skizzen für die Theaterproduktion”.
Move the Ocean
“Move the Ocean” ist eine experimentelle interaktive Installation. Durch Bewegung vor dem Bildschirm bzw. vor der Kamera haben die Akteur:innen direkten Einfluss darauf, wie sich die digitalen Meereswellen bewegen. Das Wasser wird zu einem nicht-humanoiden virtuellen Avatar.
https://dock11-berlin.de/digital/programm/termine/move-the-ocean
„Seismic“ Multichannel
Basierend auf einer audiovisuellen 3-Kanal-Installation werden seismische Bewegungen und Landschaften in Körperbewegungen übersetzt. Das Ziel ist eine Vermittlung zwischen dem Maßstab der Erdgröße und dem menschlichen Maßstab.
Live Motion Capture mit Avatar
Die Motion-Capture-Technologie hat bereits in vielen Bereichen der darstellenden und digitalen Kunst Einzug gehalten. Mit Motion Capture wird es möglich, menschliche Bewegungen lebensecht zu erfassen und auf digitale Avatare zu übertragen. Mit Face Capturing werden sogar menschliche Gesichtsausdrücke digitalisiert.
Grief-Tech
Grief-Tech-Apps visualisieren digital-interaktiv Erinnerung, Sehnsucht und Nostalgie. So kann Trauerarbeit weitergedacht und künstlerisch transformiert werden. Da es ein neues Geschäft mit der Trauer ist, ist eine kritische Auseinandersetzung nötig. Und die Zweckentfremdung zur Vermittlung journalistischer Inhalte muss durchdacht werden.
https://www.qiio.de/nach-dem-babyboom-kommt-der-death-boom-grief-tech-monetarisiert-trauer/
Bardo AV
Der physische Tod ist immer mit dem Verschwinden verbunden. Das Digitale steht im Gegensatz zur Vergänglichkeit des Materiellen. Online-Friedhöfe als virtuelle Andachtsorte oder digitale Avatare der Verstorbenen – zusammengesetzt aus Fotografien – sind Ausdruck dieser Überzeitlichkeit. Vor dem Hintergrund solcher vergleichsweise neuen Phänomene haben Tobias Staab und Gustavo Gomes eine Serie von Augmented-Reality-Skulpturen geschaffen, die sich in einem Zustand ständiger Auflösung befinden und ständig wieder materialisieren.
Bardo AR eröffnet den Blick auf einen immateriellen und gleichzeitig zeitlosen Zwischenraum, in dem der Dualismus zwischen Leben und Tod nicht mehr zu gelten scheint.
Apps zur Interaktivität mit dem Publikum
Digitale Tools zur Einbindung des Publikums müssen nicht erst erfunden werden, sie gibt es schon. Von Live Voting über die Einflechtung von Umfrage-Ergebnissen und Publikumsfragen bis hin zu Quizzen bieten Apps wie VoxR, Slido und TedMe viele Möglichkeiten, Vorträge und Diskussionen interaktiv und partizipativ zu gestalten – die jedoch vorrangig im Marketing und vereinzelt auf Live-Podcasts genutzt werden. Die Frage ist, wie sich diese Anwendungen für JIVE Storys nutzen lassen. Und es muss geklärt werden, welche Geschäftsmodelle diese Apps verfolgen, insbesondere die kostenlosen, und wie sie mit den generierten Datum umgehen.
Cloud Chamber
Cloud Chamber ist eine Mixed-Reality-Performance, unter Verwendung von Oculus Quest 2 VR-Brillen, für ein sich frei bewegendes Publikum und drei Performer von Harald Stojan. Die Performance findet in einer virtuellen Umgebung rund um ein nukleares Endlager statt. Das dort eingeschlossene Material bleibt für etwa 100.000 Jahre radioaktiv. Die Performance baut auf Hypothesen auf, wie man künftigen Generationen Informationen zum Ursprung, zur Instandhaltung und zur sicheren Versiegelung dieser Lagerstätten übermitteln kan.Sprachen könnten vergessen sein, Zeichen könnten nicht verstanden werden, Lebensformen könnten nicht menschlich sein. Mit Hilfe einer speziell entwickelten Software für VR-Brillen, einem immersiven Mehrkanal-Surround-Sound-System sowie somatischen Bewegungs- und erweiterten Stimmscores will diese Aufführung das Publikum einem Spannungsfeld zwischen dem Organischen und Unbelebten aussetzen, in dem das nicht Wahrnehmbare erlebbar gemacht wird.
https://dock11-berlin.de/digital/programm/termine/cloud-chamber)
Augmented Reality
AR (Augmented Reality) ist eine „erweiterte oder angereicherte Realität“. Digitale Elemente werden in die reale Welt eingefügt und sind über eine Brille oder Bildschirme, wie Telefone oder Pads, sichtbar. Angesteuert werden sie über QR-Codes oder Zeichen, die in Räumen, an Wänden, in Büchern, etc. erscheinen können.
Für Präsentationen kann AR Daten und Konzepte zum Leben erwecken. Referenten können AR nutzen, um 3D-Modelle, Diagramme und Animationen zu projizieren, die in der Luft schweben und es dem Publikum ermöglichen, sich auf interaktive und einprägsame Weise mit dem Material auseinanderzusetzen. Stellen Sie sich eine medizinische Präsentation vor, bei der ein 3D-Modell des menschlichen Herzens über der Bühne schwebt, schlägt und sich dreht, um verschiedene Winkel und Details zu zeigen, was komplexe Informationen verständlicher macht.
https://dock11-berlin.de/digital/programm/projekte/ar-loop-machine-education
KI (Image Generation mit Stable Diffusion and Midjourney)
Die Verwendung von Stable Diffusion-Bildern in Präsentationen kann die visuelle Darstellung für Journalisten erheblich verbessern. Diese KI-Technologie generiert hochwertige, realistische Bilder aus Textbeschreibungen und ermöglicht so maßgeschneiderte und relevante Visualisierungen. Sie spart Zeit und Ressourcen, indem sie schnell Bilder zu spezifischen Themen erstellt, und verleiht Präsentationen eine kreative, einzigartige Note. Durch die Integration dieser KI-generierten Visualisierungen werden Präsentationen ansprechender und einprägsamer, was hilft, die Aufmerksamkeit des Publikums effektiv zu fesseln und zu halten.
Gefördert wird das Projekt von der Senatsverwaltung Berlin im Rahmen des Förderprogramms „Digitale Entwicklung im Kulturbereich“.