• Schulstufe
  • Klassenstufe
  • Schulform
  • Fach
  • Materialtyp
  • Quelle 1
    zurücksetzen
Sortierung nach Datum / Relevanz
Kacheln     Liste

Druckgradient – Gradientkraft – Gradientbeschleunigung

Unterrichtseinheit

Was ist der Ursprung jeder Luftbewegung und wie lässt er sich in Zahlen erfassen? Welche physikalischen Größen werden dabei verwendet? Diese Fragen beantwortet ein interaktives Lernmodul zu den Begriffen Druckgradient, Gradientkraft und Gradientbeschleunigung.Bei der in dieser Unterrichtseinheit verwendeten Flash-Animation zur horizontalen Luftbewegung und einer darauf aufbauenden Beispielrechnung lautet die zentrale Fragestellung "Wie schnell ist ein Luftpaket nach drei Stunden?". Die Schülerinnen und Schüler erfahren, welche Faktoren dabei berücksichtigt werden müssen. Sie lernen der Reihe nach die Begriffe Druckgradient, Gradientkraft und Gradientbeschleunigung sowie deren Bedeutung für die horizontale Luftbewegung kennen. Die verwendete Animation ist Bestandteil des WEBGEO-Lernangebotes. WEBGEO ist ein Projekt von acht Hochschulen und wurde durch das Bundesministerium für Bildung und Forschung (BMBF) im Rahmen des Zukunftsinvestitionsprogramms ?Neue Medien in der Bildung? gefördert. WEBGEO richtet sich in erster Linie an Studierende der Geo- und Umweltwissenschaften, kann aber auch zur Lehrerfortbildung sowie im Unterricht der Oberstufe eingesetzt werden. Mehrwert und fächerübergreifende Einsatzmöglichkeiten Schülerinnen und Schüler werden durch die Möglichkeit individueller Beispielrechnungen und direkter Lernkontrollen motiviert. Die Animation eignet sich auch für einen fächerübergreifenden Einsatz (Geographie und Physik). Die Schülerinnen und Schüler sollen lernen, welche physikalischen Größen eine horizontale Luftbewegung bestimmen. ihr Wissen anwenden und anhand einer Beispielrechnung überprüfen. die Größenordnungen von Luftdruck und Windgeschwindigkeit einschätzen können. Thema Druckgradient - Gradientkraft - Gradientbeschleunigung Autor Philipp Wetzel Fächer Geographie (Physik) Zielgruppe Sekundarstufe II Zeitraum 1 Stunde Technische Voraussetzungen Computer in ausreichender Anzahl (Einzel- oder Partnerarbeit), Webbrowser, Macromedia Flash-Plugin (Version 6 oder höher), Beamer Das Lernmodul kann von den Schülerinnen und Schülern im Unterricht in Einzel- oder Partnerarbeit oder bei Hausaufgaben zur Vertiefung eingesetzt werden. Sie können dabei ihr Verständnis mithilfe der Beispielrechungen und Lösungen überprüfen. Zur Vor- oder Nachbereitung der Gruppenarbeit oder der Hausaufgaben empfiehlt es sich, einzelne Seiten des Lernmoduls (zum Beispiel die Simulation) per Beamer im Plenum zu besprechen. Im Vergleich zu klassischen Medien bietet das Modul folgenden Mehrwert: Motivation durch Interaktion mit dem Lernmodul (Simulation der Luftbewegung) Veranschaulichung der Begriffe durch Simulation und animierte Grafiken direkte Lernkontrolle und Motivation durch individuelle Beispielrechnungen (Abb. 1, Platzhalter bitte anklicken) mit Lösungen Die hier vorgestellte Animation ist auch für eine fächerübergreifende Zusammenarbeit von Geographie (Klimatologie) und Physik (beschleunigte Bewegung) geeignet. In Kombination mit den WEBGEO-Modulen zur Corioliskraft vermittelt das Modul "Druckgradient - Gradientkraft - Gradientbeschleunigung" die Grundlagen zum Verständnis der Planetarischen Zirkulation. Bezugssysteme und die Corioliskraft WEBGEO-Lernmodul (Macromedia Flash-Plugin erforderlich, Version 6 oder höher)

  • Geographie / Jahreszeiten / Physik / Astronomie
  • Sekundarstufe II

MP3 - ein Beispiel für angewandte Mathematik im Alltag

Unterrichtseinheit

Dateien im MP3-Format sind heutzutage sehr verbreitet. Dass hinter MP3 jede Menge interessante Mathematik steht, ist vielen nicht bewusst.Wer kennt nicht MP3-Dateien? Mit ihnen ist es möglich, große Mengen von Musik auf kleinstem Raum zu speichern und wieder abzuspielen: denn mit MP3 kann man den Speicherplatz, den man benötigt, um eine Audiodatei zu speichern, auf einen Bruchteil reduzieren. Auf modernen MP3-Playern von der Größe einer Streichholzschachtel ist es möglich, bis zu 200.000 Minuten Musik (das entspricht 130 Tagen) zu speichern. Diese Unterrichtseinheit soll einige der Prinzipien, auf denen MP3 basiert, näher beleuchten und allgemein verständlich darstellen. Dies umfasst biologische, physikalische und mathematische Aspekte.Ausgehend von verschiedenen Hörbeispielen zur Einführung werden die mathematischen Grundlagen betrachtet, die hinter der Zerlegung von Frequenzen liegen. Prinzip von MP3 und Grundlagen Wie lassen sich große Datenmengen von Video- und Audiodateien im MP3-Format platzsparend speichern? Was hört das menschliche Ohr - und was nicht? Die Grenzen des menschlichen Gehörs und welche Rolle dabei der verdeckende Schall und der verdeckte Schall spielen. Prinzip der Multiskalenanalyse Zerlegt man musikalische Töne in ihre Einzelfrequenzen, müssen ganz unterschiedliche Frequenz-Skalen betrachtet werden. Multiskalenanalyse mithilfe von Rechteckschwingungen Tonsignale lassen sich auch in Rechteckschwingungen zerlegen, deren Skala zunehmend gröber wird. Huffman-Codierung Um in MP3 die verbliebenen Informationen effizient abzuspeichern, nutzt man die Huffman-Codierung. Die Schülerinnen und Schüler sollen die Prinzipien, auf denen MP3 basiert, kennen lernen. ein grundlegendes Verständnis für das Hören von Tönen und Klängen entwickeln. einige Grenzen des menschlichen Gehörs kennen lernen. das Prinzip der Zerlegung eines Klanges in Einzelfrequenzen am Beispiel einer Multiskalenanalyse nachvollziehen. Thema MP3 - ein Beispiel für angewandte Mathematik im Alltag Autoren Dr. Anton Schüller, Prof. Dr. Ulrich Trottenberg, Dr. Roman Wienands Fach Mathematik, Physik, Biologie oder Differenzierungsbereich Mathematik/Naturwissenschaft Zielgruppe ab Klasse 8 oder im Rahmen eines Projektkurses in der Oberstufe Zeitraum 3 bis 4 Stunden oder im Rahmen einer Projektwoche Technische Voraussetzungen Computer mit Soundkarte, Software zur Wiedergabe von Audio- und Videodateien im avi-Format, zum Beispiel Windows Media Player oder Real Player MP3 ist eine Abkürzung von MPEG Audio Layer 3, wobei MPEG für Moving Picture Experts Group steht, die 1988 gegründet wurde, um einen Standard für die effiziente Kodierungvon Videocodes zu entwickeln. MP3 basiert auf dem Prinzip, dass nur der Anteil von einem Musikstück gespeichert werden muss, den das menschliche Ohr auch hören kann. Dies mag auf den ersten Blick ein wenig überraschend klingen. Hören wir denn nicht alles, was in einem Musikstück enthalten ist? Tatsächlich ist das menschliche Ohr nicht in der Lage, alle Details, die in einem Musikstück enthalten sind, wahrzunehmen. Zur Einführung in das Thema eignet sich das Zeigen der Audio-Video-Datei audio_video_kompression.avi. Hier wird gleichzeitig an einem visuellen und auditiven Beispiel demonstriert, wie sich die Qualität von Bildern und Musik verändert, wenn man die zugehörigen Dateien immer weiter komprimiert. Bei der Datenkompression bleibt die Qualität für die menschliche Wahrnehmung zunächst erhalten und man spart große Mengen Speicherplatz. Irgendwann werden jedoch die Qualitätsverluste bemerkbar. Komprimiert man dann immer noch weiter, so verschlechtert sich die Qualität dramatisch. Wieso können wir überhaupt das hören, was jemand sagt, der einige Meter von uns entfernt ist? Der Grund hierfür ist das physikalische Phänomen des Schalls. Schall entsteht, weil die Moleküle eines Mediums (zum Beispiel Luft) zum Schwingen gebracht werden. Dadurch stoßen sie an benachbarte Moleküle, bringen auch diese ins Schwingen und so weiter. Abb. 1 (bitte anklicken) zeigt eine Animation der Molekülbewegungen. Solch eine (mechanische) Schwingung breitet sich in festen, flüssigen oder gasförmigen Stoffen wellenförmig aus. Schall breitet sich als sogenannte Longitudinalwellen aus, also immer parallel zur Ausbreitungsrichtung. Die Animation in Abb. 2 (bitte anklicken) verdeutlicht dies. Entsteht ein Ton dadurch, dass eine Gruppe von Molekülen ganz regelmäßig hin und her schwingt, beispielsweise 400 mal pro Sekunde, so sagen wir auch, der Ton hat eine Frequenz von 400 Hertz, das heisst die Schwingung erfolgt 400 mal pro Sekunde. Das menschliche Ohr kann nur Töne wahrnehmen, die zwischen etwa 16 und 20.000 Hertz liegen. Ist c die Schallgeschwindigkeit in einem Medium, f die Frequenz einer Schallwelle (das heißt einer sich wellenförmig ausbreitenden Schwingung) und λ (sprich lambda) die Wellenlänge, so gilt c = λ * f Sind zwei dieser drei Größen bekannt, so kann man die dritte hiermit berechnen. Je weiter die Moleküle in der Luft hin und her schwingen, desto lauter ist der Ton. Die Lautstärke beschreibt also den Unterschied zwischen Berg und Tal der Schwingung. Geräusche haben keine exakt bestimmbare Tonhöhe mehr. Sie sind nichtperiodische Schallereignisse, die durch Überlagerungen vieler Schwingungen unterschiedlicher Frequenz mit rasch wechselnder Amplitude entstehen. Mit anderen Worten: "Der Unterschied von Ton/Klang zu Geräusch ist in der Regelmäßigkeit der Schwingung zu finden. Bei einem Geräusch ist die Schwingbewegung der Luft sehr ungleichmäßig, bei Tönen dagegen handelt es sich um immer wiederkehrende gleichförmige Luftbewegungen". Alles, was wir hören, besteht aus Überlagerungen von Schwingungen, die sich in einem Medium wie der Luft wellenförmig ausbreiten. Diese wellenförmige Ausbreitung bedeutet physikalisch gesehen, dass das menschliche Ohr Druckschwankungen wahrnimmt, die aus einer Überlagerung von Schwingungen unterschiedlichster Frequenzen resultieren. Diese Druckschwankungen führen zu einem entsprechenden Schwingen des Trommelfells. Das menschliche Ohr ist wiederum imstande, dieses Schwingen des Trommelfells über Sinneshaare im Innenohr, die auf unterschiedliche Frequenzen spezialisiert sind, in einzelne Tonfrequenzen zu zerlegen und als Nervenreize an das Gehirn weiterzuleiten. Diese werden dann vom Gehirn als Töne, Klänge und Geräusche interpretiert. Grenzen des menschlichen Gehörs: Abb. 3 zeigt Hörschwelle, Schmerzgrenze, Musik- und Sprachwahrnehmbarkeit in Abhängigkeit von der Frequenz. Nach rechts ist die Frequenz und nach oben die Lautstärke (in der Maßeinheit "Dezibel") aufgetragen. Man beachte dabei, dass "Dezibel" eine logarithmische Maßeinheit ist. Wegen log 1 = 0 bedeutet 0 Dezibel gerade nicht, dass völlige Stille herrscht. In Abb. 4 werden die Grenzen des menschlichen Gehörs deutlich: Die Hörschwelle wird angehoben durch die Anwesenheit von Tönen mit einer Frequenz von 1 kHz und verschiedenen Lautstärken (in jeweils unterschiedlichen Farben dargestellt). mp3 macht sich zunutze, dass die akustischen Informationen, die das menschliche Ohr überhaupt nicht wahrnehmen kann, auch nicht abgespeichert werden müssen. Für MP3 müssen also die Tonsignale wieder in die einzelnen Frequenzen zerlegt werden, aus denen sie zusammengesetzt sind. Anschließend werden die Anteile, die für das menschliche Gehör ohnehin nicht wahrnehmbar sind, aus der Frequenzdarstellung entfernt, denn nur die hörbaren Anteile müssen überhaupt gespeichert werden. In den Videoclips wird demonstriert, wie MP3 funktioniert. An diesen Hörbeispielen wird deutlich, dass man im MP3-Format nur einen kleinen Teil der ursprünglichen Frequenzen zu speichern braucht. Den überwiegenden Rest der Informationen kann man weglassen, ohne dass das menschliche Ohr einen Unterschied zur Originalversion wahrnimmt. Die Töne im weißen Bereich des dritten Beispiels (musikbeispiel_orig_minus_mp3.avi) werden in der Originalversion durch andere dominantere Töne überdeckt und werden somit im Gesamtzusammenhang des Musikstücks nicht wahrgenommen. Erst wenn die dominanten Töne wegfallen, werden die restlichen Töne für das menschliche Ohr hörbar. Musikalische Töne bestehen aus einer Überlagerung einer Vielzahl von Schwingungen. Wie zuvor bereits erläutert, sind nur die Schwingungen mit Frequenzen zwischen etwa 20 und 20.000 Hertz für den Menschen hörbar. Der Faktor zwischen den niedrigsten und den höchsten hörbaren Frequenzen beträgt damit immerhin 1.000 = 10³, also 3 Zehnerpotenzen. Wenn wir also musikalische Töne wieder in die darin enthaltenen Einzelfrequenzen zerlegen wollen, müssen wir ganz unterschiedliche Frequenz-Skalen betrachten. Da die Frequenzen in einem bestimmten Medium wie der Luft in direktem Zusammenhang mit den zugehörigen Wellenlängen stehen (wie in der Gleichung zu Prinzip von MP3 und Grundlagen ), können wir ganz analog auch sagen, wir müssen ganz unterschiedliche Skalen von Wellenlängen betrachten. Eine derartige Multiskalenanalyse ist durchaus nicht ungewöhnlich, wenn man die Eigenschaften von Objekten beobachten oder analysieren will. Anhand von zwei Beispielen wird das Prinzip der Multiskalenanalyse verdeutlicht. Im ersten Beispiel wird eine Multiskalenanalyse durch fortgesetzte Mittelwertbildung für eine gegebene Zahlenfolge durchgeführt. Im zweiten Beispiel betrachten wir die Zerlegung eines Tonsignals in sogenannte Wavelets, was der Zerlegung in Rechteckschwingungen entspricht. Wir betrachten als Beispiel folgende Zahlenfolge von Quadratzahlen: 0 1 4 9 16 25 36 49. Fassen wir die Zahlen in Paare zusammen und bilden die Mittelwerte dieser Paare, so erhalten wir die Folge 0,5 6,5 20,5 42,5. Fassen wir diese Zahlen ebenfalls wieder zu Paaren zusammen und bilden die Mittelwerte der Paare, so erhalten wir die Folge 3,5 31,5. Für dieses Zahlenpaar haben wir den Mittelwert 17,5. Wir haben jetzt die ursprüngliche Zahlenfolge in mehrere Skalen von Mittelwerten überführt: Um von einer Mittelwertskala wieder zur vorhergehenden zu gelangen, benötigen wir die Abweichungen der Mittelwerte von den zugehörigen Werten auf der vorigen Skala: 17,5 - 14 = 3,5 beziehungsweise 17,5 + 14 = 31,5 Entsprechend auf der nächstgröberen Skala: 3,5 - 3 = 0,5 3,5 + 3 = 6,5 31,5 - 11 = 20,5 31,5 + 11 = 42,5 Ganz analog können wir auch von der feineren Skala von Mittelwerten zu unserer ursprünglichen Folge zurückkehren: Die gröbste Skala von Mittelwerten und diese Abweichungen können wir uns wie in folgendem Schema merken. Hier ist zusätzlich die ursprüngliche Zahlenfolge nochmals mit aufgeführt: Zu den ursprünglichen Zahlen zurück kommen wir jetzt, indem wir den Mittelwert auf der gröbsten Skala und die entsprechenden gespeicherten Abweichungen auf allen feineren Skalen einfach addieren. Ein Beispiel: Annäherung an die Funktion durch Balken Um Tonsignale in Rechteckschwingungen unterschiedlicher Frequenzen zu zerlegen, können wir ganz analog vorgehen. Abb. 9 zeigt links eine Funktion, die wir in Rechteckschwingungen zerlegen wollen. Da wir den Funktionsverlauf in der Praxis oft nicht genau kennen, sondern nur an bestimmten Werten messen, nähern wir die Funktion durch die einzelnen Messwerte an. Diese Messwerte werden durch die gefärbten Balken wiedergegeben. Multiskalenanalyse in beide Richtungen möglich Auf der rechten Seite der Abbildung 9 ist der umkreiste Ausschnitt der Funktion vergrößert dargestellt. Wir erläutern das Prinzip unserer Multiskalenanalyse im Folgenden anhand dieses Ausschnitts. Vergröberung der Skalen Die linke Skizze in Abb. 10 zeigt, dass wir wie im vorangegangenen Abschnitt bei der Prinzip der Multiskalenanalyse wieder Mittelwerte der gemessenen Funktionswerte bilden, um auf die nächstgröbere Skala zu kommen. Dieses Vorgehen können wir fortsetzen, um auf gröbere Skalen zu kommen. Die mittlere Grafik von Abb. 10 zeigt den Mittelwert auf der entsprechenden nächstgröberen Skala. Verfeinerung der Skalen Aber auch die andere Richtung ist denkbar: Zurück zur feinen Skala der Funktion können wir wieder kommen, indem wir wieder die Abweichungen zum Mittelwert hinzu addieren. So erhalten wir wieder die ursprünglichen Messwerte der Funktion zurück. Betrachten wir jetzt die rechte Seite in dieser Abbildung genauer, so stellen wir fest, dass wir tatsächlich unseren Funktionsausschnitt in eine Folge von Rechteckschwingungen zerlegt haben. Abweichungen entsprechen der Rechteckschwingung Dabei sind wir ganz genauso vorgegangen wie bei der Multiskalenanalyse unserer Zahlenfolge im vorangegangenen Abschnitt ( Prinzip der Multiskalenanalyse ). Die Zahlenfolge dort können wir auch auffassen als Messwerte für die Funktion f(x) = x 2 . Daher haben wir auch dort bereits eine Zerlegung dieser Funktion in Rechteckschwingungen durchgeführt. Dies wird deutlich, wenn wir die Abweichungen auf den einzelnen Skalen nochmals genauer betrachten. Wir stellen dabei fest, dass je zwei dieser Abweichungen den gleichen Betrag haben, sich aber im Vorzeichen unterscheiden; so können z.B. die Werte ?3 und +3 auf der zweitfeinsten Skala von Abweichungen als eine Rechteckschwingung (der Höhe 3) aufgefasst werden. Prinzip der Codierung Wie bereits zu Beginn dieser Unterrichtseinheit erwähnt wurde, kann das menschliche Ohr insbesondere in polyphoner Musik (wenn viele Töne gleichzeitig erklingen und sich überlagern) viele Informationen nicht wahrnehmen. Daher werden die unhörbaren Anteile in MP3 nur ungenau gespeichert. Zusätzlich wird eine weitere Reduktion des zu speichernden Datenvolumens dadurch erreicht, dass man eine sogenannte Huffman-Codierung verwendet. Die Idee der Huffman-Codierung lässt sich am Beispiel der Codierung eines Textes einfach beschreiben: In einem Text kommen Buchstaben unterschiedlich häufig vor, in der deutschen Sprache beispielsweise das "e" viel häufiger als das "y". Deshalb verwendet man einen sehr kurzen Code für häufig vorkommende Buchstaben, längeren Code hingegen für Buchstaben, die nur selten vorkommen. Gleichzeitig ist aus einer Huffman-Codierung die ursprüngliche Information schnell, eindeutig und exakt reproduzierbar. Beispiele für Codierungen Ein Beispiel für eine derartige Codierung ist das Morsealphabet. Ein negatives Beispiel ist hingegen das Tippen einer SMS. Hier muss für häufig verwendete Buchstaben wie zum Beispiel "e" oder "n" zweimal gedrückt werden. Übertragen auf die Musik bedeutet dies: Meist besteht das ungenau zu speichernde Frequenzspektrum aus wenigen großen und vielen (also häufiger vorkommenden) kleinen Werten (Quantisierungswerte). Die Huffman-Codierung sorgt dann dafür, dass die digitalisierte Darstellung dieses Tons nur sehr wenig Speicherplatz einnimmt. Im Zusammenhang mit mp3 reduziert die Huffman-Codierung den Speicherplatz spürbar. Helmut Neunzert Einführungsvortrag auf dem Kongress Mathematik in der Praxis, Berlin, März 2009.

  • Mathematik / Rechnen & Logik / Musik
  • Sekundarstufe I, Sekundarstufe II

Crossmedia-Environments: zwischen real und virtuell

Unterrichtseinheit

Im fächerverbindenden Unterricht zwischen Kunst, Informatik und Physik realisiert eine Klasse Mixed-Reality-Ausstellungen, die reale Objekte mit traditionellen künstlerischen Mitteln und programmierten Elementen verknüpfen.Mit den Begriffen "Crossmedia" und "Mixed Reality" werden Environments beschrieben, die Elemente aus der virtuellen und der realen Welt miteinander verbinden. Solche Environments werden vor allem in der Medienkunst und Unterhaltungsbranche verwendet, zunehmend aber auch in Wissenschaft, Forschung und Pädagogik übertragen. Das pädagogische Konzept ?Mixed Reality? lässt sich als Erweiterung des realen Raums um Virtualität beschreiben: als eine produktive Verschränkung verschiedener Realitätsebenen mit dem Ziel, den Computer in eine neue Lernkultur zu integrieren, in der die Sinne und ein soziales Miteinander die Hauptrolle spielen. Fächerverbindender und vorhabenbezogener Projektunterricht Die Unterrichtseinheit wurde für die Fächer Kunst, Informatik und Physik entwickelt, lässt sich im Prinzip aber auf andere Fächerverbindungen übertragen. Zwar ist die Organisation des schulischen Lernens weiterhin vorwiegend fachgebunden und projektorientiertes Lernen bleibt nach wie vor die Ausnahme. Alle Fächer arbeiten aber zunehmend vorhabenbezogen. Fächerverbindende Zusammenarbeit ist eine wichtige Voraussetzung für die Orientierung an Leitthemen und dieses Unterrichtsprinzip setzt sich von der Grundschule an aufwärts immer mehr durch. Alle Fächer sollten in diesem Zusammenhang Gestaltungsfertigkeiten als ästhetische Schlüsselkompetenzen vermitteln. Der Projektverlauf Alle Arbeitsphasen der "Lernumgebung mit Werkstattcharakter" im Überblick Inhaltliche Ziele Die Schülerinnen und Schüler sollen multimediale Environments als eine Form zeitgenössischer Kunst kennen lernen. eigene Phantasiewelten in raumbezogene Gestaltungskonzepte umsetzen lernen. in projektorientierten Lernzusammenhängen gemeinsam Handlungsziele formulieren, Wege zu ihrer Verwirklichung erarbeiten, untereinander abstimmen und umsetzen. Ziele im Bereich der Medienkompetenz Die Schülerinnen und Schüler sollen digitale Medien in der aktiven Gestaltung neu erfahren. ikonische Programmierungen durchführen und Einblicke in Programmierungsprozesse erhalten. eine interaktive multimediale Präsentation besucherorientiert gestalten. Das Besondere der Ausstellungskonzepte: Reale Objekte werden mit traditionellen künstlerischen Mitteln und programmierten Elementen verknüpft. Die Besucherinnen und Besucher können gestaltete Elemente und Effekte, die programmiert und durch Sensoren ausgelöst werden, im Raum interaktiv erleben. Das Prinzip bietet Kindern und Jugendlichen die Möglichkeit, zeitgenössische Kunstformen kennen zu lernen und selbst gestaltend zu erarbeiten. Thema Crossmedia-Environments: zwischen real und virtuell Autor Ingrid Höpel Fach Kunst, Informatik, Physik sowie fächerverbindender Unterricht Zielgruppe Sekundarstufe II Zeitraum Kursthema für ein Halbjahr Verlaufsplan Verlaufsplan Crossmedia-Environments zur Unterrichtseinheit Medien Notebooks, elektronische Lastrelais, Lego Mindstorms: Lego-Cam, Lego-Sets mit RCX-Baustein und Infrarotsender Software Lego-Software RoboLab und Vision Command Voraussetzungen Computer-Grundkenntnisse Mixed Reality - Medien eröffnen neue Räume Ingrid Höpel, Michael Herczeg, Daniela Reimann, Thomas Winkler: "Mixed Reality" - Medien eröffnen neue Räume. In: Karl Ermert, Annette Brinkmann, Gabriele Lieber (Hrsg.): Ästhetische Erziehung und Neue Medien. Zwischenbilanz zum BLK-Programm "Kulturelle Bildung im Medienzeitalter", Wolfenbüttel: Bundesakademie für Kulturelle Bildung 2004, Seite 148-160. Multimediale interaktive Environments Ingrid Höpel: Multimediale interaktive Environments. In: BDK Materialien. Computer - Fachtypische Anwendungen im Kunstunterricht. Beiheft zu BDK-Mitteilungen 1/04, Seite 26. Mixed Reality in Lernprozessen (CD-ROM) Die CD-ROM aus dem Jahr 2003 dokumentiert die hochschulübergreifende Zusammenarbeit von Studierenden des Instituts für Multimediale und Interaktive Systeme der Universität Lübeck und der Christian-Albrechts-Universität Kiel. Bestellung unter info-artdecom@imis.uni-luebeck.de Kinder und Jugendliche bewegen sich in ihrer Freizeit mit großer Sicherheit und Selbstverständlichkeit in einer von digitalen Medien bestimmten Welt. Sie bedienen sich des Handys, sie spielen Computerspiele, sie chatten mit Freunden und Unbekannten im Internet. Die Angebote der Medien machen Schülerinnen und Schüler aber in der Regel zu passiven Nutzern vorgefertigter Abläufe und Programme. Diese Passivität wird beim Lernen in Crossmedia-Projekten aufgebrochen: Kinder und Jugendliche erfahren an konkreten Beispielen, wie sich der Computer durch Programmierung aktiv einbeziehen lässt. Sie lernen die informatische Modellbildung verstehen und anwenden. Sie werden zu kompetenten und kritischen Nutzern von Computer, Internet, Chat und Computerspiel. Räumliche Flexibilität Eine wichtige Voraussetzung für den Ansatz der Lernumgebung mit Werkstattcharakter ist, dass als Lernumgebung nicht der Computerraum dient. Der Computer wird als transportables Medium in Form von Notebooks in den Klassenraum, Kunstraum, in den Werkstattbereich oder an den Ort der Installation mitgenommen. Der Unterricht findet dort in wechselnden Sozialformen statt: Sie reichen vom Lehrervortrag über Einzel- und Partnerarbeit bis zur selbstorganisierten Gruppenarbeit. Organisation des Unterrichts Für das Gelingen des Unterrichts sind die räumlichen und zeitlichen Bedingungen wichtig. In unseren Projekten war die Unterrichtszeit zwar meist auf eine wöchentliche Doppelstunde festgelegt, im Lauf des Projekts bestimmten aber zunehmend die sachlichen Erfordernisse Arbeitszeit und -organisation. Das ist im schulischen Rahmen nur dann möglich, wenn ein offener Werkstattraum zur Verfügung steht. Dennoch ist der Unterricht nicht zwingend an einen Kursunterricht gebunden. Er kann in unterschiedlicher Intensität und Länge stattfinden: im normalen Klassenverband in der wöchentlichen Doppelstunde des Kunstunterrichts (dann aber über einen Zeitraum von mindestens sechs Wochen), punktuell intensiv an Projekttagen oder im Idealfall in halbjährigen Projektkursen. Voneinander lernen Bei der Beobachtung und Auswertung eines fächerverbindenden Projektunterrichts fällt immer wieder auf, wie Schülerinnen und Schüler sich gegenseitig unterrichten und im sozialen Miteinander voneinander lernen. Dabei können sich häufig gerade solche Schülerinnen und Schüler besonders gut einbringen, die im Kunstunterricht sonst desinteressiert oder leistungsschwach erscheinen. Eine ausgeprägte Kompetenz als Mediennutzer ermöglicht es ihnen, Fähigkeiten und Fertigkeiten im Umgang mit dem Programm zu zeigen und ihren Mitschülerinnen und Mitschülern weiterzugeben. Sie erarbeiten sich leichter als andere den Schritt aus der Rolle des passiven Mediennutzers heraus und erweisen sich dabei in der Lage, ihre Klassenkameraden mitzunehmen. Dadurch verändert sich in Medienprojekten die traditionelle Rolle der Lehrkräfte noch mehr, als es sich in anderen Formen projektorientierten Unterrichts beobachten lässt. Der Handlungsraum für Lernende und Lehrende umfasst sowohl den physischen Raum als auch den digitalen Raum. Beide Bereiche werden über Schnittstellen zwischen Mensch und Maschine miteinander verknüpft. Dafür werden unterschiedliche Formen von "Tangible Media" eingesetzt: Nicht nur die Maus wird als Eingabegerät benutzt, sondern darüber hinaus andere Schnittstellen wie Sensoren, die programmierbare Kamera oder auch Grafik-Tabletts. Das, was sich beim Lernen im Kopf abspielt, wird über die sinnliche Wahrnehmung, über soziale Kommunikationsprozesse und Handlungen vor dem Computer und im Virtuellen zum Auslöser für Veränderungen im digitalen und physischen Raum. Sinne fungieren als Kontrollinstanz Ein wichtiges Prinzip der Lernumgebungen für die Erstellung von Crossmedia-Environments ist die räumliche und zeitliche Nähe zwischen der Programmierung am Computer und der Kontrolle des geschriebenen Programms durch die eigenen Sinne. Zum Einsatz kommen hierfür Mikrocomputer und Programme der Produktfamilie Lego Mindstorms. Die mit einer ikonischen Programmierkette auf den Notebooks geschriebenen Programme werden sofort nach ihrer Erstellung über den Infrarotsender auf den gelben Mikrocomputer übertragen. Auf diese Weise können sie unmittelbar neben dem Computer ausprobiert werden. Für den Erfahrungs- und Lernprozess ist die räumliche und zeitliche Nähe dieser Erfahrung besonders wichtig, weil die Welt der Programmierung mit der sinnlich erfahrbaren Welt zu kommunizieren beginnt. Auswirkungen des eigenen Programmierhandelns im Computer werden in der physischen Welt sofort wahrnehmbar und nachprüfbar. Ganz konkret erweist es sich, ob das Programm läuft und was es bewirkt: Lichter gehen an, Geräusche werden erzeugt, über kleine Motoren wird Bewegung im Raum ausgelöst. Ikonische Programmierung Als ikonische Programmierung wird in der Informatik ein Programm bezeichnet, das es erlaubt, über einzelne vorgefertigte Bausteine eine Wenn-Dann-Relation hervorzurufen. Wenn beispielsweise ein Tastsensor mit einer bestimmten Stärke berührt wird, schaltet sich ein Licht oder eine Tonfolge ein. Das Licht bleibt unter bestimmten Bedingungen an und beginnt unter veränderten Bedingungen zu blinken oder erlischt. Die selbst geschriebene Programmierkette wird auf dem Bildschirm durch Ikons dargestellt. Zugänge zur Medienkunst Für viele Schülerinnen und Schüler sind die Möglichkeiten der Begegnung mit zeitgenössischer Kunst immer noch selten: vor allem in der "kulturellen Provinz" fernab von den großen Ausstellungszentren. Erfahrungen mit Kunst aus zweiter Hand über Abbildungen, Dias, Videos und Internet können diesen Mangel nur unzureichend ausgleichen. Arbeiten wie die von Peter Weibel, Jeffrey Shaw oder Art+Com können den Schülerinnen und Schülern über das Internet vorgestellt werden, so dass sie einen ersten Eindruck von interaktiven Environments gewinnen können. Der Entwurf und die praktische Umsetzung eines eigenen Installationskonzepts unterstützen und vertiefen diesen Zugang. Die Nutzerinnen und Nutzer des interaktiven Mediums verwandeln sich idealerweise in kompetente Gestalter. Medienkunst im Unterricht Auf der Suche nach Medienkunstwerken trifft man immer wieder auf opulente Werke, wie beispielsweise im Zentrum für Kunst und Medientechnologie Karlsruhe (ZKM). Im Schulunterricht muss allerdings in Kauf genommen werden, dass die Soft- und Hardware-Komponenten aus Kostengründen zurzeit noch erheblich eingeschränkt sind. Auf längere Sicht werden aber Software und interaktive Schnittstellen kostengünstiger und variabler zur Verfügung stehen. Programmierung Dem Computer kommt im Szenario des Crossmedia-Environments eine zentrale Rolle zu, weil die Programmierung als Kernstück der Installation die interaktive Komponente trägt. Er leistet damit einen spezifischen und durch nichts anderes zu ersetzenden Beitrag. Im Verlauf des Projektfortgangs wird der Umgang mit dem Computerprogramm für die Schülerinnen und Schüler jedoch offensichtlich zunehmend unwichtiger. Der Computer entwickelt sich mehr und mehr zu einem gleichrangigen Gestaltungsmedium neben anderen - gleichwertig auch gegenüber den traditionellen Medien im Kunstunterricht wie etwa der Kulissenmalerei. Der Umgang mit dem Computer gewinnt somit an Selbstverständlichkeit. Bei anstehenden Gestaltungsaufgaben werden die Möglichkeiten, die er neben den traditionellen Medien bietet, realistischer eingeschätzt. Er ordnet sich ein oder vielmehr unter. Körper und Sinne Ungewöhnlich für den Gebrauch der digitalen Medien im Crossmedia-Zusammenhang ist, dass Lernen grundsätzlich Körper und Sinne einbezieht. Das sollte besonders betont werden, weil es für das Lernen mit dem Computer und den digitalen Medien im allgemeinen Verständnis immer noch ungewöhnlich ist. Dabei ist angestrebt, die traditionelle Grenze zwischen Künsten, Natur- und Geisteswissenschaften ansatzweise aufzubrechen. Für das Gelingen der Projekte sind wahrnehmungsbezogene, künstlerische, informatische und soziale Fähigkeiten im Zusammenspiel notwendig. Charakteristika und Leitideeen Charakteristisch für Crossmedia-Environments sind: Gestaltungsorientierung Multisensualität Erweiterung durch Digitalität Werkstattorientierung Prozessorientierung Interdisziplinarität Leitideen im Crossmedia-Projekt sind: informatische und ästhetische Prozesse im Kontext von hybriden Lernumgebungen miteinander zu verbinden. das Programmieren des Verhaltens von Mikrocomputern für die Lernenden als kreativen und gestaltenden Prozess erfahrbar zu machen. die Charakteristika digitaler Medien als programmierbar und manipulierbar zu erkennen. die Möglichkeiten und Leistungen virtueller Welten im Zusammenhang mit der physischen Welt zu reflektieren. Raum- und Themenwahl Ein Projektkurs des 13. Jahrgangs hat im fächerverbindenden Unterricht zwischen Kunst, Informatik und Physik interaktive Environments in Anlehnung an zeitgenössische Medienkunst inszeniert. Dabei wurden an einem außergewöhnlichen Ort, dem Dachboden der Schule, digitale Werkzeuge und nicht-digitale Objekte arrangiert, programmiert und zu einem begehbaren, hybriden Erlebnisraum gestaltet. Der Dachboden diente normalerweise nur als Abstellraum und konnte deshalb für den Projektunterricht während der gesamten Projektlaufzeit unabhängig von den üblichen Unterrichtszeiten als offene Werkstatt genutzt werden. Das Ambiente eines offenen Dachstuhls in einem Jugendstilbau wirkte zu Beginn des Projekts auf alle Teilnehmerinnen und Teilnehmer besonders reizvoll, wurde aber in den Inszenierungen nicht thematisiert. Die Schülerinnen und Schüler entschieden sich stattdessen für die Inszenierung von Naturräumen als Phantasielandschaften. Traum- und Märchenlandschaften Ausgangspunkt war für die Schülerinnen und Schüler die Faszination, durch den Einsatz der neuen Technologie die Traum- und Märchenlandschaften ihrer Kindheit Wirklichkeit werden zu lassen: Wüste, Moor, Ruine, Gewitterlandschaft, Vulkan, Regenwald. Weitgehend unabhängig vom bestehenden Raumeindruck entwarfen sie zunächst aus ihrer Erinnerung an Exotik und Abenteuer fremde und deshalb für sie attraktive Räume, die stark von Klischeevorstellungen geprägt waren: etwa von einer orientalisch und märchenhaft anmutenden Atmosphäre in der Art von "Tausend-und-einer-Nacht" oder von Expedition und Abenteuer. Von der Nachahmung zur Abstraktion Während für die Schülerinnen und Schüler zunächst der Reiz in einer täuschend echten Nachahmung der phantasierten Welten bestand, gelangten sie im Lauf des Projekts durch die Betrachtung zeitgenössischer Kunst an den Punkt, die Präsentation ihrer Welten zu stilisieren, zu übertreiben oder ironisch zu brechen. Durch eine noch stärkere Lenkung zu Beginn hätte vielleicht ein noch höherer Abstraktionsgrad der Welten erreicht werden können. Auf alle Fälle war es wichtig, den in der Sekundarstufe II immer noch vorwiegend imitativ geprägten Impuls der Schülerinnen und Schüler ernst zu nehmen. Abstraktionsprozesse setzten so erst in der Realisierungsphase nachhaltig ein. Pappmaché und Programmierung In traditionellen Techniken wurden aus Pappmaché, Stoff und Farbe zunächst kleine Modelle im Kasten gebaut, die in einer zweiten Phase in großformatige Objekte und Kulissen umgesetzt wurden. Zeitgleich entwarfen die Schülerinnen und Schüler interaktive Reaktionen und Handlungsabläufe, die sich beim Betreten der Kulissen abspielen sollten. Für diese Konzepte mussten mit der ikonischen Programmier-Software RoboLab an den Notebooks Programme geschrieben werden. Die fertigen Programme wurden über Infrarot-Schnittstellen auf die Mikrocomputer RCX übertragen. Mischformen digitaler und realer Objekte Die Besucherinnen und Besucher lösten beim Betreten der Räume durch Tast-, Licht- und Wärmesensoren die programmierten Abläufe aus und bestimmten durch ihre Bewegung Reihenfolge und Intensität der Effekte. Über elektronische Lastrelais konnten handelsübliche Elektrogeräte angesteuert werden, so dass Bilder wahlweise über einen Beamer oder über Diaprojektoren projiziert wurden. Auch Geräusche konnten abgespielt oder Motoren in Gang gesetzt werden. Mit dem Einbau einer programmierbaren Kamera, die auf bestimmte Farben oder auf Bewegung reagierte, war es möglich, bestimmte Effekte auszulösen. Auf diese Weise entstanden Mischformen digitaler und realer Objekte und Räume. Dabei spielten die Schnittstellen zwischen Programmierung und physikalischen Abläufen eine wichtige Rolle. Wüste Die Wüste bestand aus einem hellen Raumsegment, das durch weiße Leinwände vom übrigen Raum abgeteilt worden war. Der gesamte Boden war mit Sand ausgelegt. Das Betreten war nur von einer einzigen Seite her möglich und löste bereits auf der Schwelle durch einen Lichtsensor leise Musikuntermalung aus. Auf einer gegenüberliegenden Leinwand wurde eine Dia-Projektion einer Dünenlandschaft gestartet, die den Raumeindruck fortsetzen sollte. Der knirschende, weiche Sand unter den Füßen unterstützte die Wirkung. Ging die Betrachterin oder der Betrachter auf die Dünenlandschaft zu, wurde ein weiterer Sensor ausgelöst, der einen hellen Scheinwerfer als Sonne einschaltete. Ein zweites Dia einer Fata Morgana legte sich über das erste. Musik, Licht und Projektion erloschen beim Verlassen des Raums durch den Ausgang. Gewitter Der als Black Box gestaltete, sehr kleine Raum war vollständig abgedunkelt und besaß nur einen Zugang, der als Ein- und Ausgang diente. Die Besucherin oder der Besucher musste an einem Platz stehen und hatte wenig Bewegungsraum. Erst nach einer relativ lang erscheinenden Wartezeit startete ein einziger Lichtsensor das gesamte Programm: Zuerst erklang Musik, dann wurde auf eine dunkle Wand ein Blitz projiziert; Donnergeräusche wurden mit Musik unterlegt; ein Ventilator und eine Wasserspritze erzeugten Wind und Wassergeräusche, Luftbewegung und den Eindruck von Luftfeuchtigkeit; eine Stroboskoplampe leuchtete mehrmals als Blitz auf. Die Effekte steigerten sich zum Ende der Präsentation und ließen den Besucher zuletzt wieder im Dunkeln stehen. Moor Das im Halbdunkel liegende, lang gestreckte Raumsegment der Moorlandschaft war durch grünbraun gefärbte und bemalte Leinwände begrenzt. Der Boden hatte Torfbelag und strömte einen intensiven Geruch nach Torf aus. Der Raum konnte nur auf einem durch Platten vorgezeichneten Weg begangen werden. Unter diesen Platten befanden sich Tastsensoren, die auf Druck reagierten und Effekte auslösten. Ein erster Impuls schaltete viele kleine Lämpchen an der Decke ein, die zum Teil dauerhaft leuchteten, zum Teil blinkten. Andere Tastsensoren setzten einen Motor in Gang, der einen Ventilator betrieb, so dass die Luft in Bewegung kam und seitlich angebrachte Zweige sich im Wind bewegten. War die Besucherin oder der Besucher bis zur Mitte des Raums gelangt, startete ein weiterer Tastsensor eine kleine Wasserfontäne, deren Plätschern auch akustisch wahrnehmbar war. Durch die Verbindung von optischen, akustischen, haptischen und olfaktorischen Elementen war der synästhetische, stimmungshafte Erlebniseindruck in diesem Raum besonders intensiv. Der Dachboden wurde zu einem interaktiven Lern- und Erfahrungsraum für Besucherinnen und Besucher umgestaltet. Einen Höhepunkt der Arbeitsprozesse stellte die abschließende Ausstellung "Natürlich - Künstlich" dar. Die Schülerinnen und Schüler organisierten den Ablauf von der Ankündigung in der Presse über die Einladung und Plakatierung bis zur Besucherbetreuung. Besucherinnen und Besucher konnten die interaktiven Environments begehen und die Phantasielandschaften erleben. Da immer nur wenige Personen zugleich die Räume erleben konnten, hatten die Schülerinnen und Schüler für die Wartenden eine Einführung in die Programmiersoftware an den Notebooks organisiert und Informationsmaterialien über das Projekt ausgelegt.

  • Kunst / Kultur
  • Sekundarstufe I
ANZEIGE
Premium-Banner