Avsnitt

  • Aufbauend zur letzten Folge, in welcher das klassische Hilfsmittel, der Langstock, betrachtet wurde, geht es heute um Leitlinien und Leitsysteme.

    Leitlinien gibt es auch für sehende Menschen. Sie folgen Straßen und wegen und laufen in der Regel nur in Ausnahmen querfeldein.

    Für blinde Menschen stellt sich die Frage, wie man verschiedene Leitlinen verfolgen kann. Wie kann man einigermaßen geradeaus gehen, ohne dauernd vom Weg abzukommen? Wie bekommt man mit, dass die Straße eine Kurve macht?

    All das bekommen sehende Menschen sehr früh schon mit.

    Häuserwände können mit dem Stock oder auch der Hand entlang verfolgt werden. Bordsteine können mit dem Stock entlanggegangen werden. Bordsteinkanten kündigen auch Kurven an.

    Eine wesentliche Erkenntnis im Orientierungs- und Mobilitätstraining muss sein, dass man begreift, dass Leitlinien generelle Umweltmuster darstellen, deren Verfolgung und Interpretation sich auch an unbekannten Orten anwenden lässt.

    Sehende verfolgen oft auch taktile Leitlinien, indem Sie versuchen sich nachts, ohne Licht zu machen, durch die Wohnung, beispielsweise zur Toilette zu bewegen. Sie tasten sich an Möbeln und Türen entlang und finden so ihren Weg, oder auch nicht.

    In jedem Fall entwickelt sich eine innere Landkarte. Die besteht bei blinden Menschen dann eher aus Bordsteine, Rabatten, Häuserwänden, aber auch aus statischen Dingen, wie Mülltonnen, Blumenkübeln, Gitter, Masten und weiterem.

    Es gibt zwei Fernsinne, das Sehen und das Hören, wobei der Sehsinn noch deutlich weiter reicht. Der Langstock verlängert den Umweltradius für den Tastsinn.

    Nicht überall sind jedoch Leitlinien vorhanden. Straßen und Plätze müssen meist frei überquert werden. Auf dem Land gibt es häufig keine Bordsteine in Neubaugebieten.

    Es gibt auch akustische Leitlinien, so können manche blinde Menschen Hauswände hören. Sie müssen dann nicht ständig mit dem Stock oder der Hand sich daran entlang hangeln.

    Manche überqueren Straßen, indem sie akustisch auf das gegenüberliegende Gebäude zulaufen. Bei dieser Technik wird die Tatsache ausgenutzt, dass jeder Mensch Trittschall erzeugt. Der Langstock stellt eine weitere Geräuschquelle dar, deren mit Umweltinformation beladene Reflektion ausgewertet und zur Verbesserung der Orientierung als Leitlinie verwendet werden kann.

    Hört die Hauswand rechts auf, dann weitet sich der Raum akustisch. Grünstreifen können von manchen ebenfalls gehört werden.

    Das Gehör ins Leitsystem zu integrieren ist mit die höchste Schule eines Mobilitätstrainings. Desto länger jemand erblindet ist, desto jünger er zum Zeitpunkt war, desto eher kann diese Technik erlernt und vervollkommnet werden. Bei geburtsblinden Menschen ist sie meist sehr verbreitet.

    Eine weitere akustische Leitlinie kann Verkehr sein, der einem die Gehrichtung vorgibt.

    Ein Ziel des Unterrichts ist es, dass man auch lernt frei zu gehen und nicht ständig eine Leitlinie benötigt. Die Leitlinie wird dann zur Grenze. Die Bordsteinkante wird nicht mehr kontinuierlich verfolgt, sondern ist ein Warnhinweis, dass man etwas vom geraden Weg abgekommen ist. Man kommt somit schneller voran.

    Es wird unterschieden zwischen der inneren und der äußeren Leitlinie. Die äußere ist meist die Straße und tendenziell die gefährlichere.

    Die meisten Hindernisse befinden sich immer an den Wegrändern, wie etwa Mülleimer und Stromkästen eher an den inneren Leitlinien, und Autos, Fahrradständer Schilder eher an der Äußeren.

    Die Fähigkeit frei zu gehen, erspart einem viele Hindernisse. Es gibt aber auch erwünschte Hindernisse. Wenn man weiß, was man tut und wo man hin möchte, kann man sich akustisch in einen Personenstrom einordnen, an ein Fahrrad hängen oder jemandem folgen.

    Mehr und mehr werden im öffentlichen Raum Leitsysteme bestehend aus Rillenplatten und Noppenplatten verlegt. Sie können entweder zur Wegfindung dienen, indem man mit dem Stock oder dem Fuß ihnen folgt. Andererseits stellen sie auch eine Schutzfunktion dar, indem sie vor einem Gleisbett warnen.

    Ein Leit- bzw. Orientierungssystem benötigt immer ein Konzept. Legte man die ganze Welt mit Leitsystemen aus, wäre das Leitsystem keines mehr. Seltene Orientierungsplatten tragen häufig mehr Information.

    Es kann beispielsweise Sinn ergeben, Aufmerksamkeitsfelder zu legen, wo Wege von einem Hauptweg abgehen. Dazwischen benötigt man aber keine Leitlinien, da der Weg sowieso geradeaus geht.

    Häufig werden Leitsysteme falsch eingebaut, weil keine Experten befragt wurden. Es gibt DIN-Normen, wie Leitsysteme beschaffen sein sollten und wie sie zu verlegen sind, z. B. an Haltestellen. Leitlinien und Leitsysteme müssen aber immer erlernt und deren Bedeutung interpretiert werden.

    Es ist heute mehr Bewusstsein für Orientierung und Mobilität in der Öffentlichkeit vorhanden, als noch vor zwanzig Jahren. Auch Baustellen werden heutzutage so abgesichert, dass sie mit dem Langstock wahrgenommen werden können. Flatterbänder sind zum Glück verboten, die früher kleinere Baugruben umgaben.

    Häufig denken Entscheider, sie müssten kilometerweise Rillenplatten verlegen. Das stimmt meist so nicht, denn, wo der Weg sowieso klar und eindeutig ist, braucht man keine zusätzliche Leitsysteme.

    Es kann nicht immer sinnvoll sein, Betroffene danach zu fragen, wie ein geplantes Leitsystem an einer Stelle aussehen sollte, um möglichst hilfreich zu sein.

    Die Experten sind hier eher die O&M-Trainer, weil sie zum einen den Problembereich sehend erfassen können und Lösungen finden, die dann wirklich hilfreich sind.

    Auch andere Expertengruppen müssen hinzu gezogen werden, beispielsweise haben Rollstuhlfahrer Anforderungen an Bordsteinhöhen, die sich eventuell von den Vorstellungen blinder Experten unterscheiden.

    Nicht zuletzt werden die positiven Entwicklungen durch die Behindertenrechtskonvention befeuert. Sicherheit und weniger Barrieren dienen allen.

    Es ist zu erwarten, dass technische Entwicklungen, so wie kamerabasierte Systeme und verbesserte engmaschigere Orientierungsdaten, hier noch viel Unterstützung bringen werden.

  • Ottmar Kappen und Christoph Erbach, beide Mobilitätstrainer bei Sehwerk, sind zu Gast bei Gerhard Jaworek vom Studienzentrum für Sehgeschädigte (SZS) am Karlsruher Institut für Technologie (KIT). Thema der Folge ist der klassische Blindenstock oder Langstock.

    Jeder, der an blinde Menschen denkt, verbindet das meist mit dem robustesten und zuverlässigsten Hilfsmittel zur Orientierung, dem Langstock, den die blinde Person vor sich her pendelt beziehungsweise mit sich führt.

    Die Geschichte, dass sich blinde Menschen mit Stöcken orientieren, geht bis in das Mittelalter zurück. Es scheint Darstellungen zu geben, die Blinde mit Stock zeigen. Auf dem Gemälde „Zug der Blinden“, das auf um 1800 geschätzt wird, geht einer mit einem Stecken voraus und andere blinde Menschen folgen.

    Der klassische Langstock wurde in Frankreich von Guilly d’Herbemont entwickelt. In Deutschland hielt sich noch sehr lange bis in die 70er Jahre des letzten Jahrhunderts hinein der weiße kurze Krückstock. Der Volksmund sagt heute noch „Das sieht ja ein Blinder mit dem Krückstock“… Hauptnachteil des Krückstocks ist die zu kurze Distanz, um auf Hindernisse reagieren zu können. Er diente auch eher der Kennzeichnung und weniger der Orientierung. Die Systematisierung der Benutzung des Langstockes erfolgte 1944 durch Richard Edwin Hoover.

    Der Stock sollte ungefähr bis zum Brustbein reichen. Bei Kindern, bzw. Personen, die sehr schnell unterwegs sind, etwas länger, um einen längeren Reaktionsweg zu erreichen.

    Erste Experimente wurden in den 70er Jahren mit Stativ-Beinen gemacht, die man weiß anstrich. Heute kommen häufig Hightech-Materialien zum Einsatz, wie man sie vom Outdoor-Bereich her kennt, beispielsweise Carbon, Aluminium und andere Leichtmetalle bis hin zum Flugzeugstahl.

    Die Machart des Stockes, also wie viele Klappteile er besitzt, das Material des Stockes und auch der Spitze, legen fest, wie gut der Stock Bodeninformationen überträgt. Den Vorteil eines praktisch faltbaren Klappstocks erkauft man sich eventuell durch seinen dadurch eher dämpfenden Charakter und die dadurch etwas weichere und verwaschenere Informationsübertragung.

    Auch die Spitze ist hierfür sehr entscheidend. Eine starre unbewegliche überträgt mehr Information und gibt mehr Geräusch, was auch zur Auswertung der Umgebung genutzt werden kann, aber auf Kopfsteinpflaster bleibt man damit hängen.

    Oft kommen Rollspitzen zum Einsatz. Diese entlasten die Stockhand enorm. Sie drehen sich leider nicht in Laufrichtung. Die Rollspitze hat die Technik verändert. Bei starren Spitzen tippt man eher und bei Rollspitze verbleibt der Stock auf dem Boden.

    Es gibt im wesentlichen drei Typen von Langstöcken und Kombinationen davon:

    Der starre Langstock kann weder gefaltet, noch ineinander geschoben werden. Der Teleskop-Langstock. mit ihm kann die Länge variiert werden. Das kann beispielsweise dann sinnvoll sein, wenn man mal schneller und mal langsamer unterwegs ist. Der Faltstock. Von zwei bis sechs Teile, die durch einen Gummizug gehalten werden.

    Bei manchen Faltstöcken ist ein Glied als Teleskop ausgelegt, so dass man die Länge so auf 20 cm variieren kann.

    Den besten Stock gibt es nicht. Der muss gemeinsam mit den Trainern individuell gefunden werden. Manche setzen je nach Situation auch mehrere Stöcke ein. Für sehbehinderte Menschen gibt es kürzere Stöcke, die lediglich der Kennzeichnung dienen. Auch bei den Griffen gibt es inzwischen von der Krücke, dem Golfgriff, dem edlen Holzgriff alles, was man sich denken kann.

    Ein Langstock darf heutzutage auch schick, space-ig oder sonst wie gemacht sein. Über den Griff lässt sich ein Stock gut personalisieren. Jemand, der einen Stock mit sich führt muss nicht zwangsläufig vollblind sein.

    Hat er einen Röhrenblick, dann kann die Person eventuell noch ohne Brille lesen, sich aber nicht mehr mit dem kleinen Gesichtsfeld orientieren.

    Gesellschaftlich bedeutet Stock aber meistens Blindheit. Das macht den Start mit dem Langstock für Menschen mit einer schleichenden Erblindung oft schwer. Der Stock muss akzeptiert werden. Nur dann wird er seine Möglichkeiten voll entfalten. Er muss zum verlängerten Zeigefinger werden.

    Blinde Menschen haben, wenn sie sich alleine im Verkehr bewegen, eine Kennzeichnungspflicht. Der Stock ist neben der Armbinde, Signalleibchen auch ein akzeptiertes Zeichen. Deshalb sollten Walking- Ski- oder andere Stöcke, die keine Kennzeichnungs- oder Langstöcke sind, eigentlich nie weiß sein. Das Führgeschirr eines Führhundes dient auch als Verkehrsschutzzeichen und kennzeichnet auch die Seheinschränkung.

    Teil des O&M-Unterrichtes ist es auch, dass man sich ausreichend kennzeichnet, z. B. anhand der richtigen Stockhaltung in der richtigen Situation. So darf der Stock nicht in den Verkehr hinein ragen. Sehende sollten nie versuchen, dem pendelnden Stock durch einen Hochsprung auszuweichen. Stehen bleiben ist das beste. Dann stößt der Stock vielleicht mal an die Füße, was man aber kaum wahrnimmt.

    Viele verfallen in eine Art Starre. Das beste, wie schon gesagt, stehen zu bleiben und sich akustisch bemerkbar zu machen. Sehende erden oft nervös, wenn sie sehen, dass jemand mit Langstock auf ein Hindernis zusteuert und wollen warnen. Das ist gut gemeint, aber nicht immer hilfreich. Scheinbare Hindernisse sind für blinde manchmal sogar wichtige Orientierungs-Marken. Ich empfehle an dieser Stelle, wenn es sich nicht wirklich um ein gefährliches Hindernis, z. B. eine offene Grube oder so handelt, etwas Gelassenheit. Sollte die blinde Person tatsächlich in Schwierigkeiten geraten, bekommen Sie das schon mit, oder sie werden um Hilfe gebeten etc.

    Und wenn Sie rufen müssen, dann rufen Sie bitte auch den Grund ihrer Besorgnis dazu. „Achtung“ bringt nicht viel, weil für uns ein Hindernis erst dann existiert, wenn es mindestens in Reichweite des Langstockes ist.

    Was der Stock nicht kann, ist die Erkennung von Hindernissen, die nicht direkt am Boden beginnen, wie Kanten von Laderampen bei LKWs, Schranken und ähnliche in der Luft schwebende Hindernisse. Hierfür gibt es Geräte zum Oberkörperschutz. Basierend auf Infrarot, Laser oder beidem warnen diese vor derartigen Hindernissen, indem beispielsweise der Griff des Stockes vibriert. Ein Beispiel hierfür ist der Ultra Cane, oder die Fledermaus von Synphon, deren Prototyp auch hier zu hören ist.

    Wichtig ist an dieser Stelle, dass es sich hier lediglich nur um Zusatzgeräte handelt. Bisher ist es technisch nicht gelungen, den Stock zu ersetzen.

  • Saknas det avsnitt?

    Klicka här för att uppdatera flödet manuellt.

  • Gerhard Jaworek vom Studienzentrum für Sehgeschädigte (SZS) des Karlsruher Institutes für Technologie (KIT) traf sich mit Christoph Erbach Rehabilitationslehrer von Beruf und angestellt bei der Firma Sehwerk am SZS zum Thema Mobilitätstraining: Wie blinde Menschen lernen sich die Welt zu erschließen. Mobilitätstraining (57:43, 27MB)

    Gleich bei der Vorstellung appelliert der Gast an alle, dass es am Rehabilitationslehrer-Nachwuchs mangelt, obwohl es ein sehr vielfältiger und abwechslungsreicher Beruf sei.

    Ein Rehalehrer unterstützt Menschen mit einer Seheinschränkung oder Blindheit, um in ein selbstständiges Leben, um in die Welt zu finden. Angefangen vom selbstständigen Stellen eines Weckers, sich anzuziehen, Körperhygiene, Nahrungszubereitung, Essen bis hin zum Umgang mit dem Blindenstock, nutzen von Navigationshilfen und was sonst noch für ein eigenständiges Leben nötig ist, umfasst die Aufgaben eines Rehalehrers.

    Mobilitätstraining und Unterricht in lebenspraktischen Fertigkeiten (LPF) ein lebenslanger Prozess sind, weil sich Lebensumstände ändern und daher andere Fähigkeiten und Fertigkeiten wichtig werden.

    Ein Kind muss beispielsweise lernen, sich selbst die Schuhe zu binden. Später braucht es den Weg zur Schule, dann wird spätestens im Studium Kochen, Wäschepflege und Haushaltsführung wichtig. Der Weg zur Uni, vermutlich sogar in einer neuen Stadt, und vieles mehr muss erlernt werden. So muss im Laufe des Lebens immer mal wieder nachtrainiert werden.

    Bei diesem Reha-Unterricht gibt es Basiseinheiten, wie der Umgang mit dem Langstock, aber ansonsten entsteht das Kolloquium individuell durch die Lebenssituation eines jeden einzelnen Individuums betont Christoph.

    Wenn jemand etwas beispielsweise auch nicht lernen möchte, ist das OK. Es geht um Lebensglück und Lebensqualität in diesem Unterricht. Grundvoraussetzung muss immer sein, dass die betroffene Person sich in diesen Bereichen verändern möchte. Oft gibt es unangemessene Einflussnahme von Angehörigen Betroffener, die in bester Absicht meinen, so ein Training verordnen zu müssen.

    Der Unterricht ist eine Sache. Der psychische Umgang und die Verarbeitung einer plötzlichen Erblindung eine andere. Hier ist höchste Sensibilität und Respekt gefordert.

    Thema sind oft ganz einfache Wünsche, wie „Für mich wäre es ein Glück, wieder selbst in meinen Garten fahren zu können.“ Der Weg dahin kann steinig sein.

    Zu Orientierung und Mobilität gehört weit mehr, als nur den Langstock angemessen einsetzen zu können. Training des räumlichen Vorstellungsvermögen, wo bin ich gerade im Raum, und was muss ich tun, um zu einem gewünschten anderen Ort zu gelangen, ist am Anfang manchmal gar nicht so einfach. Sicheres Gehen, wie auch die Überwindung von Stufen und Treppen stellen vor allem Menschen mit einer Altersblindheit vor große Herausforderungen. Pro Retina ist eine Selbsthilfevereinigung für Menschen mit Netzhautdegenartionen.

    Schwierig ist oft am Anfang, dass die betroffene Person alles so erledigen möchte, wie sie es in der Vergangenheit als sehender Mensch tat.

    Diagonal durch einen Raum zu laufen, geht ohne Sicht nicht mehr so ohne weiteres. Deshalb versuchen Blinde oft die Welt in einfache geometrische Strukturen zu bannen. Gerhard Jaworek hat viele Jahre in der Quadratestadt Mannheim gelebt und liebte die einfache Orientierung in den Quadraten. Der Karlsruher Fächer, ist dagegen im Vergleich eine größere Herausforderung, weil eine Vereinfachung deutlich schwieriger ist.

    Ein höchstes Gut und Ziel eines Mobilitätstrainings, ist die Fähigkeit, sich zum einen eine innere Karte der Umgebung vorzustellen, und zum anderen, dass man dann auch noch weiß, wo man sich auf ihr befindet und was man tun kann, wenn eine geplante Route, beispielsweise wegen einer Baustelle, nicht gegangen werden kann. Und auch hier setzt das Projekt Terrain mit optimierten Routen an.

    Mobilitätstraining ist auch Persönlichkeitsbildung: Man muss lernen zu fragen, um Hilfe zu bitten und die eigenen Grenzen zu akzeptieren.

    In Deutschland haben wir eine sehr gute Situation, da Kinder meist durch die Frühförderung schon rechtzeitig mit O&M-Training und LPF beginnen.

    Gerhard Jaworek hatte das große Glück in einen sehr fortschrittlichen Kindergarten für blinde Kinder nach Basel besuchen zu können. Ansonsten hätte ich in diesen Bereichen deutlich mehr Defizite nachzuholen gehabt.

    Wie schon in Folge 2 dieses Podcasts angesprochen, werden in O&M noch viele Hilfsmittel über den klassischen Langstock hinaus eingesetzt.

    Es ist gewissermaßen ein Glücksfall, das auch sehende Menschen „so faul sind“, selbst in bekannten Orten nicht auf Fußgängernavigation verzichten zu wollen. Davon profitieren blinde Menschen, die Navis und Smartphones als Hilfsmittel, sich zurecht zu finden, einsetzen.

    Neben Stock, Navis, Kompass findet alles Einsatz, was die Vorstellungskraft fördert. Taktile 2D-Karten bis hin zu 3D-Modellen werden nach Bedarf verwendet. Der Touch-Mapper Service bietet die Erstellung von 3D-Modellen von Karten für den 3D-Druck.

    Landmarks sind auch sehr wichtig, beispielsweise eine Hausecke mit Regenrinnen oder sonstige fest installierten unbeweglichen Dinge. Zur Einschätzung der Situation und auch zur Verortung in der Umgebung ist ein geschultes Gehör unverzichtbar. So findet heutzutage das Klicksonar mehr und mehr Einzug in den O&M-Unterricht.

    Trotz aller Möglichkeiten steht die Einfachheit im Vordergrund. Auch wenn Technik versagt, muss es eventuell gehen.

    Eines der am höchsten technisch entwickelte Hilfsmittel dürfte der Chip sein, der ins Auge implantiert wird, und Lichtreize an das Gehirn geben kann. Christoph Erbach hat schon Personen damit unterrichtet. Leider erfüllen die meisten blinden Menschen die Randbedingungen nicht, so dass er nur wenigen helfen kann. Die Wahrnehmung mit dem Chip ist aber eher nicht ein Sehen im klassischen Sinne. Dennoch kann diese geringe Auflösung und Lichtwahrnehmung hilfreich sein.

    Aktuelle technische Entwicklungen in Richtung der Künstlichen Intelligenz, autonomem Fahren, Computersehen und vielem mehr werden in Zukunft auch für blinde Menschen das Leben erleichtern und verbessern.

    Weitere Informationen Firma Sehwerk anderes sehen e.v. Pro Retina e.V. Rehabilitationslehrer-Nachwuchs
  • Am 18. April 2018 fand in Frankfurt das zweite Vernetzungstreffen der Projekte in der Förderline „Verlässliche Technik für den mobilen Menschen“ statt. Markus Winkelmann vom ITAS am Karlsruher Institut für Technologie (KIT) und Sebastian Ritterbusch von der iXpoint Informationssysteme GmbH konnten an dem Treffen teilnehmen, und unterhalten sich hier über die Erfahrungen und die verschiedenen Gespräche, die sie dort führen konnten.

    Die Vernetzungstreffen ermöglichen den Projekten einen Austausch sowohl über ihre Projekte, als auch über Querschnittsthemen, die alle Projekte in der Förderlinie vereint. Verglichen zum ersten Vernetzungstreffen im Rahmen der Fachtagung Mobilität im Wandel in 2017 konnte hier noch stärker den einzelnen Projekten als auch den begleitenden ELSI Themen (Ethische, rechtliche und soziale Aspekte) Rechnung getragen werden.

    In der Einführung durch Frau Albrecht-Lohmar für das BMBF-Referat „Mensch-Technik-Interaktion; Demografischer Wandel“ wurde großer Wert darauf gelegt, dass Forschung und Förderung kein Selbstzweck sein dürfen, sondern sie zu Innovationen führen sollen, die auch bei den Menschen ankommen. In der Begrüßung durch Dr. Marcel Kappel für den Projektträger und Organisator VDI/VDE-IT im Bereich Mensch-Technik Interaktion wurde die Einbettung der Förderlinie in das Forschungsprogramm dargestellt.

    KoFFI

    Das Projekt KoFFI zur kooperativen Fahrer-Fahrzeug Interaktion startete die Projektvorträge. Es ging dabei um Fragen wie man mit Konfliktsituationen zwischen Fahrer und Fahrzeug umgehen kann, oder wie eine Vertrauenssituation hergestellt wird. Eine kritische Frage war auch, in welchen Situationen sich ein Fahrzeug über die Entscheidungen des Fahrers hinwegsetzen sollte. So verhindert beispielsweise ein ausgelöster Airbag sehr deutlich die Aktionsfreiheit des Fahrers, es ist jedoch weithin akzeptiert, dass hier die unaufgeforderte Einschränkung des Menschen weit schlimmeres verhindern kann. Wann hingegen Überholvorgänge noch abgebrochen werden dürfen, sind hingegen deutlich kompliziertere Fragestellungen, die im Projekt untersucht werden. Dabei muss auch grundsätzlich berücksichtigt werden, dass ein Einverständnis auch ein Verständnis voraussetzt. Hier ergaben sich im Projekt überraschende Ergebnisse, über die uns Susanne Kuhnert vom Institut für Digitalethik der Hochschule für Medien (HDM) Stuttgart erzählte.

    In der ethischen und rechtlichen Begleitung des sonst technisch ausgelegten Projekts KoFFI ging es weit über eine Literaturarbeit hinaus, und es wurde das Gespräch mit Probanden im Sinne einer experimentellen Philosophie gesucht, wo mit empirischen Ergebnissen und Experimenten gearbeitet wurde. Im der Forschung um autonomes Fahren zur Erarbeitung von ethischen Leitlinien (vgl. medizinische Leitlinien) stellte sich dabei früh die Frage, ob die Nutzergruppe überhaupt den Begriff der Autonomie versteht.

    Das Projekt KoFFI untersucht grundsätzlich die Nutzbarkeit von Gesten und natürlicher Sprache zur Interaktion von Fahrzeug und Mensch, damit nicht mehr feste Befehle auswendig gelernt werden müssen, sondern der Wagen aus der Situation heraus den Menschen so gut wie möglich mit natürlicher Sprache verstehen kann. Eine überraschende Erkenntnis war hier, dass selbst bei technik-affinen Probanden eine grundsätzliche Technikskepsis zu beobachten war, die auf zweiten Blick durch den alltäglichen Umgang mit niemals perfekter Technik verständlich wird. Gleichzeitig wünscht sich natürlich niemand einen Technikausfall bei einer Fahrt mit hoher Geschwindigkeit auf der Autobahn. Diese Frage kann nicht alleine technisch behandelt werden, sondern benötigt einer ethischen Betrachtung, wie hier der Umgang der Technik mit dem Menschen und die Technikentwicklung von Menschen auf sehr elementare Fragen eingehen kann.

    Im Vortrag wurden auch die Begriffe Technikzukünfte, wie die Nutzenden sich die Technik in Zukunft erwünschen, den Zukunftstechniken, den real in Zukunft existierenden Techniken, gegenüber gestellt. Um diese Begriffe der ungewissen Zukunft besser in den Griff zu bekommen, werden Szenarien erarbeitet, um wahrscheinliche Zukünfte als Entscheidungsgrundlage entwickeln zu können.

    Vorreiter

    Das Projekt Vorreiter will durch neuartige Kommunikationsmethoden auch Menschen mit Einschränkungen den Zugang zu teil- oder vollautomatisierten Fahrzeugen erleichtern. Ein Aspekt war hier, wie beispielsweise eine Lenkradsteuerung auch Menschen theoretisch und praktisch ermöglicht werden kann, die für eine traditionelle Kontrolle des Lenkrads körperlich nur eingeschränkt fähig sind. Hier wurden unter anderem Tests mit einem Altersanzug durchgeführt, die auch darstellten, dass die Einschränkungen auch einige in Erwägung gezogene Gesten betrafen.

    Die anschließende Podiumsdiskussion zu den beiden Projekten startete mit der Frage „Mein Fahrzeug soll sein wie…“, wo sich das Publikum für den „Partner“ aussprach.

    KOLA

    Das Projekt KOLA befasst sich mit kooperativen Laserscheinwerfern und im Treffen wurden die Schwerpunkte Psychologie und Technik dargestellt. Welche Signale und Hinweise können über Lichtbilder auf der Straße verwendet werden, um über eine neue Kommunikationsform ein sozialeres und sicheres Straßenumfeld zu schaffen. Auf der einen Seite erscheinen Emoticons und Smileys als eine moderne und eingängige Kommunikationsform, jedoch sind sie weit weniger eindeutig als bekannte Verkehrsymbole, dessen Verwendung aber aus guten Gründen hier durch die StVO stark reglementiert ist. Auch der Stand der technischen Realisierung wurde im Vortrag sehr beeindruckend geschildert.

    PAKoS

    Zum Projekt PAKoS ging es insbesondere um die sichere Übergabe der Fahrzeugkontrolle vom Fahrer an die Automation und umgekehrt. An diesem Projekt ist mit dem cv:hci am Karlsruher Institut für Technologie (KIT) auch ein Partner vom TERRAIN-Projekt beteiligt.

    Dr.-Ing. Michael Flad vom Institut für Regelungs- und Steuerungssysteme (IRS) am KIT war bereit, uns PAKoS vorzustellen, und uns die unterschiedlichen Kommunikationsmodalitäten, die in der Kommunikation mit dem Fahrzeug zum Einsatz kommen, zu erklären. Neben der visuellen Darstellung im Display oder als Projektion auf der Windschutzscheibe, wird auch eine akustische Sprachausgabe verwendet. Ergänzt werden diese Darstellungsformen durch haptische Signale durch einen mit Vibrationsmotoren ausgestatteten Sitz, der Interaktion mit dem Lenkrad und Pedalen an den Füßen. In einer ersten Studie hat sich ergeben, dass visuelle Signale am leichtesten übersehen werden, im Vergleich beispielsweise zu akustischen Hinweisen. Am deutlichsten wurden hier die Vibrationssignale im Sitz wahrgenommen. Dies ist genau gegenläufig zur möglichen Informationsdichte und entsprechenden Ablenkungspotential der Kanäle. Besondere Ablenkungen können hier die aktuell nicht erlaubten Nebentätigkeiten während des Fahrens sein, die beim autonomen Fahren teilweise akzeptiert werden können.

    In der Zeit der nur teilautonomen Systeme müssen hier Verfahren untersucht werden, wie die Übergabe der Verantwortung in Abhängigkeit von den Tätigkeiten, dem Fahrer und der Situation ablaufen kann. Ein mathematisches Modell ist hier die Abbildung der Regelkonzepte als gekoppeltes Differenzialgleichungssystem zu betrachten. Mit Hilfe eines Differenzialspiels kann die Vorhersage über die erwartete Übernahme in die Fahrzeugautomation aufgenommen werden.

    Der im Gespräch erwähnte Unfall mit einem teilautonomen Uber-Auto zeigte sehr deutlich, welche schlimmen Auswirkungen die Ablenkung der fahrenden Person haben kann.

    Im Gespräch mit Luis Kalb vom Lehrstuhl für Ergonomie an der TU München ging es dann um Details der Verwendung des von Bastiaan Petermijer entwickelten vibrotaktilen Autositzes. Hier sitzt man auf einer Art Vibrationsmatte, die Vibrationsmuster in unterschiedlichen Intensitäten von der Sitzfläche bis zum Rückenbereich darstellen kann. Typische Muster sind Linien, die komplett von einer Seite zur anderen durchlaufen, und sie werden oft zusätzlich durch Sprachausgaben ergänzt. Gerade bei Ablenkungen des Fahrers kann mit Hilfe dieses Kommunikationskanals sehr deutlich auf gefährliche Situationen oder gefährliches Handeln hingewiesen werden.

    Die zusätzlichen Kommunikations- und Detektionsmethoden für teilautonomen Automobilen ermöglichen deutlich sicherere Betriebsmodi, wenn beispielsweise bei einem abgelenkten Fahrer automatisch die Fahrgeschwindigkeit reduziert wird, da der Mensch nicht mehr so schnell eingreifen kann. Eine unmittelbar verständliche Reaktion kann auch sehr zur Akzeptanz eines Systems beitragen, wenn sie nicht womöglich als Rechtweisung oder Bestrafung aufgefasst wird. Ganz abgesehen davon nimmt die rechtliche Fragestellung zusätzlich einen großen Raum ein, wie die Verantwortung in solchen Situationen zu bewerten ist. Ein anderes Beispiel sind künstlich erzeugte Geräusche für langsam fahrende Elektroautos, ohne die blinde Menschen das Fahrzeug kaum noch akustisch orten können. Es gibt eine Vielzahl von technischen Lösungen, die sowohl im sozialen, psychologischen und rechtlichen Kontext bewertet werden müssen. Ab 2021 wird jedes neu zugelassene E-Auto entsprechende Geräusche machen müssen.

    Bei der Frage in das Plenum, wie die Kommunikation zwischen Fahrzeug und Fahrende stattfinden sollte, lief es auf die Punkte intiutiv, sicher und verständlich hinaus, und führte in eine rege Diskussion zu den beiden Projekten.

    Safety4Bikes

    Der nächste Block startete mit dem Projekt Safety4Bikes für ein Assistenzsystem für mehr Sicherheit von fahrradfahrenden Kindern. Jochen Meis von GeoMobile und Dr. Florian Klingler der CCS Labs des Heinz Nixdorf Instituts der Uni Paderborn gaben uns in einem Gespräch einen tiefen Einblick in den Stand und die Erfahrungen aus ihrem Projekt. Sehr interessant ist beispielsweise das Ergebnis, dass der Fahrradhelm inzwischen bei Kindern fast durchweg genutzt wird, hingegen die Eltern ihn seltener und besonders die Großeltern fast überhaupt nicht verwenden. Ein anderes Ergebnis ist, dass der Unfallschwerpunkt für fahrradfahrende Kinder Kreuzungsbereiche sind, gefolgt von Ein- und Ausfahrten.

    Eine Möglichkeit die Sicherheit zu erhöhen bietet die Car2X Kommunikation, wo im Projekt untersucht wird, wie Fahrräder in dieses Kommunikationsnetz integriert werden können, um im Vorfeld auf Gefahrensituationen hinweisen zu können. Die technische Grundlage ist das IEEE 802.11p Protokoll, das eine ad-hoc Kommunikation im Straßenverkehr ermöglicht. Die ersten Tests im Safety4Bikes Projekt wurden auf Trikes umgesetzt, um den jungen Probanden keiner zusätzlichen Gefahr auszusetzen. In Zukunft ist die fortschreitende Elektrifizierung auch im Fahrradbereich für das Projekt eine zusätzlich vorteilhafte Entwicklung, da sie die Frage der Stromversorgung erleichtert.

    TERRAIN

    Den Ansatz weitere Methoden im Forschungsprojekt zunächst auf einem tragbaren Computer statt auf dem Smartphone umzusetzen, verfolgen wir im TERRAIN-Projekt genauso wie bei Safety4Bikes: Die ersten Tests der Bilderkennung wurden auf einem Laptop durchgeführt, den die Probanden auf dem Rücken trugen, und im weiteren Verlauf befassen wir uns nun damit, wie und ob und wann wir Teile davon auch auf Smartphones bringen können.

    Nach der Vorstellung des Fortschritts im TERRAIN Projekt gab es eine Podiumsdiskussion zu Gefährdeten und Gefahren im Straßenverkehr- nach Meinung des Plenums sind Fahrradfahrende besonders den Gefahren ausgeliefert.

    ELSI-Themen

    Das Treffen endete mit einer Diskussion zu ELSI-Themen, angeleitet durch Prof. Dr. Tobias Keber (@datenreiserecht), der unter anderem von den Ergebnissen einer Umfrage zu ELSI-Themen bei Forschungsprojekten berichtete: Ein Ergebnis war hier der Ratschlag, ELSI-Aspekte als kreative ‚Störfaktoren‘ zu nutzen. Auf jeden Fall müsse die Begleitforschung auch zu gemeinsamen Aktivitäten führen, um eine Integration zu ermöglichen. Das Zusammenspiel der technischen Entwicklung mit der Reflektion in der ELSI-Begleitforschung ist ein guter Weg, auf eine Entwicklung für die Menschen hinzuarbeiten, also zur Technik für die Menschen hinzuwirken.

  • Richtungsinformationen lassen sich sehr gut über Vibrationen vermitteln. Dafür hat Patryk Dzierzawski im Rahmen seiner Abschlussarbeit Vibrationsbänder entwickelt, aufgebaut und evaluiert.

    Am Lehrstuhl vom Computer Vision for Human-Computer Interaction Lab (cv:hci) und dem Studienzentrum für Sehgeschädigte (SZS) werden nicht nur Assistive Technologien für Menschen mit Sehbehinderungen evaluiert und angeboten, sondern auch dazu unterrichtet. Weiterhin werden Studierenden Möglichkeiten geboten unter anderem mit Abschlussarbeiten in diesem Bereich sich direkt an der Forschung zu beteiligen. Patryk Dzierzawski stellt dazu hier im Gespräch mit Gerhard Jaworek seine Abschlussarbeit zu Vibrationsbändern zur Navigationsunterstützung an Arm oder Fuß vor.

    Die Arbeit bestand aus dem Design, der prototypischen Herstellung, einer Ansteuerung durch Smartphone und der Evaluation des vibrotaktilen Interfaces. Die Vibrationsbänder selbst bestehen aus mit 3D-Druck erstellten Band und Gehäuse, einem Mikrocontroller mit Batterie und Vibrationsmotoren. Bei der Erstellung war das Vorwissen um Wearable Computing und Robotik sehr hilfreich.

    Schon in der Folge 2 „Blind Orientieren“ dieses Podcasts wurden vorgestellt, wie vibrotaktile Interfaces zum Einsatz kommen können. Meisst gab es hier nur einfache Vibrationen, wo hingegen die Vibrationsbänder drei von einander unabhängig ansteuerbare Vibrationsaktoren eingesetzt werden. Damit können elementare und wichtigste Navigationsanweisungen zur Richtung und Warnmeldungen zum Anhalten sehr direkt vermittelt werden. Der große Vorteil der vibrotaktilen Vermittlung liegt dabei darin, dass der Hörsinn nicht wie bei Narration und Sonifikation eingeschränkt wird.

    Im Gegensatz zu kommerziellen Lösungen wie dem VibroTac System lag in der Arbeit der Fokus auf einer leichten und preiswerten selbstätigen Herstell- und Reparierbarkeit durch Rapid Prototyping Technologien mit der damit einhergehenden Reduzierung auf eine minimale Lösung, die noch die volle Navigationsunterstützung liefern kann. Die Literaturrecherche führte unter anderem zum „Gentle Guide“, wo an jedem Arm ein Vibrationsmotor eingesetzt wurde, wo durch die Nutzenden gerade die Nutzung zweier Bänder kritisch gesehen wurde, so wurde hier eine Lösung mit nur einem Band angestrebt. Interessanterweise hat sich diese reduzierte Lösung als sehr effektiv in einem Navigationstest erwiesen, wenn auch die Interpretation der Signale im Vergleich zur akustischen Ausgabe durch den Menschen etwas länger dauerte.

    Im FDM 3D-Druck kamen für das Armband ein flexibles TPU Filament und für den Gehäuseschutz für Platine und Batterie ein hartes Filament zum Einsatz. Für den Microcontroller Adafruit Feather 32u4 Bluefruit LE mit eingebautem Bluetooth Low Energy (BLE)-Modul musste auch die Ansteuerelektronik für die Motoren ausgelegt werden. Die Programmierung erfolgte mit der Arduino-Entwicklungsumgebung und ermöglichte die Ansteuerung durch Smartphones über Bluetooth LE.

    Für die technische Ansteuerung der Vibrationsbänder wurde auch eine App für Android Smartphones entwickelt. Dabei wurde auch auf die Barrierefreiheit geachtet, damit auch blinde Menschen die technischen Tests durchführen können. In den damit ermöglichten Praxistests wurde geprüft, in wie weit die gewünschte Funktion erfüllt wird, welche Vibrationsstärken und -dauer als sinnvoll und angenehm bewertet wurden. Dabei wurden die Tests sowohl in Ruhe als auch in Bewegung durchgeführt. Interessanterweise wurden am Armband zur sichereren Unterscheidbarkeit typischerweise länger und stärker gewünscht, am Fußband wurden die angesetzten Standardwerte gut akzeptiert. Die Tests beschränkten sich aber auf die reine Identifikation der Vibrationen, erweiterte Wizard-of-Oz Tests bei dem ein Mensch die Funktion einer erweiterten Software simuliert und die Hardware direkt ansteuert, sollen eine Navigation simulieren und sind Teil eines späteren Tests im Terrain-Projekt.

    Literatur und weiterführende Informationen S. Schätzle, T. Ende, T. Wüsthoff, C. Preusche: „Vibrotac: An ergonomic and versatile usable vibrotactile feedback device.“, RO-MAN, IEEE, 2010. A. Meier, D. J. Matthies, B. Urban, R. Wettach: „Exploring vibrotactile feedback on the body and foot for the purpose of pedestrian navigation.“ Proceedings of the 2nd international Workshop on Sensor-based Activity Recognition and Interaction. ACM, 2015.
  • Mit unserem Gehör können wir Geräusche unmittelbar orten und identifizieren. Um diese Fähigkeit sinnvoll im Projekt nutzen zu können, gibt uns Dr. Paul Modler einen Einblick in Raumklang.

    Die Abteilung Medienkunst Akustik (MK Akustik) der Staatlichen Hochschule für Gestaltung (HfG) in Karlsruhe befasst sich mit elektronischer und elektroakustischer Musik, Klanginstallation und Sonifikation. Sie wird von Dr. Paul Modler geleitet, der uns in diesem Gespräch einen Einblick in Raumakustik und Techniken für räumliches Hörempfinden über Kopfhörer geben konnte.

    Paul Modler ist gerade von einem Besuch der Ars Electronica in Linz zurückgekehrt. Ein hervorgehobenes Event des Festivals der elektronischen Künsten war die Klangwolke einer Story mit Feuerwerk, Maschinen, Jets und Booten auf der Donau. Der Wettbewerb Prix Ars Electronica gab einen Einblick, welche aktuellen Richtungen die durchaus diskutierte Medienkunst darbietet.

    Nach seinem Diplom in den Ingenieurwissenschaften an der ehemaligen Universität Karlsruhe (jetzt Karlsruher Institut für Technologie (KIT)) zur Signalverarbeitung und Filterentwurf des Waveterm Synthesizer der Palm Products GmbH (PPG), gelangte Paul Modler an die University of York, wo er im Bereich der Music Technology promovierte und von dort an die Hochschule für Gestaltung in die Medienkunst geworben wurde. Seine Forschungsinteressen gehen auch in Richtung des Mehrkanaltons, insbesondere im Verfahren der Ambisonics, das nach langer Durststrecke inzwischen sogar als Raumklangformat bei YouTube Einzug gehalten hat.

    Die MK Sound setzt sich mit der Frage der Musikerstellung, der Definition und möglichen Instrumenten sowie der Technik, Installation und Performance in einem sehr breiten Spektrum interdisziplinär auseinander. Es gibt Lehrveranstaltungen zur analogen Tonerzeugung, wie auch die Auseinandersetzung mit neuen digitalen Einflüssen und die Abbildung analoger Synthesizern auf mobilen Geräten wie bei Korg. Die Gruppe wird auch von besuchenden Künstlern wie John Richards in Richtung Circuit Bending inspiriert. Dies führt zu faszinierenden Abschlussarbeiten wie den Atmospheric Disturbances von Lorenz Schwarz, wo Raumklang mit Plasmalautprechern künstlerisch umgesetzt wurde. Interessante Impulse entstehen auch aus der Zusammenarbeit mit weiteren Instituten und Hochschulen: So beteiligen sich auch oft Studierende des KIT an Projekten.

    Die Aufnahme fand im Studio 311 der MK Sound statt, wo die Gruppe einen mobilen Klangdom installiert hat, um an ambisonischen Verfahren zu arbeiten und ihn musikalisch zu nutzen. Zur Ansteuerung kommt hier die Software Zirkonium wie auch die Software des Institut de Recherche et Coordination Acoustique/Musique (IRCAM) „Spat“ zum Einsatz, sowie andere verfügbare Verräumlichungstools. Ein Aspekt ist dabei auch der Wandel der Sicht auf den Lautsprecher vom Mittel zum Zweck hin zu einem eigenständigen Musikinstrument.

    Die Hochschule für Gestaltung in Karlsruhe ist eingerahmt und im gleichen Haus wie das Museum für neue Kunst und das ZKM – Zentrum für Kunst und Medien und Medienmuseum. So arbeitet die MK Sound natürlich eng mit dem von Prof. Ludger Brümmer geleiteten Institut für Musik und Akustik am ZKM zusammen. Das Institut bietet insbesondere auch der Diskussion musikalisch digitalen elektroakustischen Bereich eine Plattform und hat mit dem Klangdom im ZKM Kubus eine etablierte Referenzplattform für Raumklang. Zusammen mit der HfG wurde dazu auch 2015 das inSonic Festival zu Raumklang ausgerichtet, das sich im inSonic Festival Dezember 2017 wiederholt. Die große Bandbreite des Instituts zeigt sich auch in häufigen Kraftwerk-Konzerten bis hin zu häufigen Linux Audio Konferenzen. Der ehemalige Kraftwerk-Musiker Florian Schneider-Esleben war auch 1998 als Professor für Medienkunst und Performance an die HfG berufen. Ende letzten Jahres fand am Institut auch das Strömungen Symposium zu künstlerischer Sonifikation statt.

    Durch unser Gehör und Körper nehmen wir Schallwellen wahr, soweit sich diese etwa im Hörbereich von etwa 20-20kHz und einem davon abhängigen Pegel befindet. Assoziieren wir einen Sinn oder gewisse Ästhetik in ein Geräusch, so mögen wir es als Klang bezeichnen, der Teil einer Musik sein kann. Ein Teil der Akustikempfindung wird in der Psychoakustik beschrieben, die auch sehr exakt mit der Hörbarkeit von Geräuschen und Auswirkung von Wahrnehmungen auf den Menschen analysiert. Diese Analyse hat erst den Erfolgszug der verlustbehafteten Audiokompression möglich gemacht.

    Für die Aufnahme von Raumklang spielt die Positionierung der Mikrofone eine besondere Rolle: Da eine Aufnahme aus allen Richtungen an einem Punkt nicht möglich ist, müssen Mikrofone mit gewissen Abstand von einander positioniert werden, wodurch der Raum diskretisiert wird. Besonders beispielhaft für die Auswirkung der Diskretisierung sind Werke von John Chowning, der die Frequenzmodulations-Synthese aus der Raumklangforschung heraus für Synthesizer patentierte. Hier erhält man an leicht unterschiedlichen Positionen mit klassischem Soundfeld Mikrofon oder mit Ambeo VR Mikrofon ein völlig anderes Konzerterlebnis.

    Im Rahmen einer Stereoaufnahme und -reproduktion durch Lautsprecher entstehen Phantomschallquellen um die Lautsprecher, soweit man sich exakt im Sweet Spot des Stereodreiecks befindet. Empirisch zeigt sich, dass die Verwendung von zusätzlich an die Wand gedrehten Treibern, wie beim Acoustimass-System ein immersiveres Stereoempfinden erzeugt wird. Das räumliche Empfinden im Kopf entsteht zunächst durch Intensitäts- oder Pegelunterschiede und Laufzeitunterschieden zwischen den Ohren, die vom Gehirn rekonstruiert und die virtuelle Position der Schallquellen rekonstruiert wird. Sehr individuell spielt aber auch die Kopf- und Körperform eine große Rolle, denn je nach Kopfgröße sind die Ohren unterschiedlich weit voneinander entfernt, die Ohrmuschel unterschiedlich geformt und die Schultern unterschiedlich weit entfernt. Dadurch ergeben sich eine durch frequenzabhängige Intensitäts- und Laufzeitsunterschiede resultierende Filterung, die als Head-Related Transfer Function (HRTF) bzw. Kopfübertragungsfunktion bezeichnet wird. Die Berücksichtigung dieser Abbildung führt zur binauralen Aufnahme und Reproduktion. Eine weitere Wahrnehmungsmöglichkeit ist der Raumschall, wo eine räumliche Wahrnehmung durch die Beziehung zum Raum ermöglicht wird. Daher muss man in der Stereofonie deutlich zwischen Lautsprecheraufnahmen und Kopfhöreraufnahmen unterscheiden, da die Reproduktion über Kopfhörer die Berücksichtigung der Kopfübertragungsfunktion erforderlich ist.

    Der Weg zu Mehrkanal-Tonsystemen führte von der Stereofonie zunächst zur Quadrofonie für Systeme mit vier Lautsprechern, die im Vergleich zum Aufwand einen begrenzten Gewinn des Raumklangs unter Einführung weiterer unerwünschter Effekte bewirkte. Da sich keine Aufzeichnungssysteme für dieses Tonsystem wirklich kommerziell durchsetzen konnten, war das System wenig verbreitet. Die sehr verwandten Dolby Surround oder 5.1-Systeme haben sich durch leichte Veränderung des Systems im Film- und Kinobereich dagegen sehr durchgesetzt. Für den Film war es sehr wichtig, dass Einführung des zentralen Center-Lautsprechers die räumliche Positionierung der Schauspieler deutlich verbessert hat, und die Verwendung von Subwoofer bzw. des LFE-Kanals auch preiswertere immersive Installationen durch Satelliten-Lautsprecher ermöglicht hat.

    Als großer Kritiker der Quadrofonie entwickelte Michael Gerzon 1973 mathematisch-physikalisch fundierte Ambisonics-Verfahren, um auf einer beliebigen Anzahl von Lautsprechern einen Raumklang aufnehmen, aufzeichnen und wiedergeben zu können. Während ein System nullter Ordnung mit einem einzigen Kugelmikrofon und Kugellautsprecher realisiert werden kann, sind ab erster Ordnung schon mindestens acht Lautsprecher für eine sinnvolle Reproduktion erforderlich. Leider müssten sehr viele Mikrofone für das Verfahren alle koinzident in einem Punkt positioniert werden, was mit herkömmlicher Aufnahmetechnik nicht optimal realisierbar ist, und dafür von Gerzon besondere Mikrofonkonfigurationen entwickelt wurden, die das koinzidente Signal rekonstruieren können. Im Bereich der Meteorologie gibt es Ultraschallanemometer, die tatsächlich die Luftbewegung im Raum in einem einzelnen Messraum bestimmen können, nur ist dies aktuell nur im Aufnahmebereich räumlich gemittelt bis zu 200mal pro Sekunde bis maximal in den Infraschallbereich möglich.

    Eine frühe berühmte und umstrittene Raumklang-Installation war der Philips Pavilion bzw. Poème électronique auf der Weltausstellung Expo 58 in Brüssel, wo die an hyperbolischen Trajektorien aufgestellten Lautsprecher als diskrete wandernde Tonquellen benutzt wurden. Zur Weltausstellung Expo 70 in Osaka entwarf Karlheinz Stockhausen für den deutschen Pavillon das Kugelauditorium, in dem die Ansteuerung der Lautsprecher durch einen Drehhebel erreicht werden konnte. Ein ähnliches Verfahren ist das Vector Based Amplitude Panning (VBAP)-Prinzip, das von Ville Pulkii 1997 wissenschaftlich ausgearbeitet wurde.

    Im Gegensatz zu den früheren Installationen verlangen ambisonische Verfahren sehr regelmäßige Lautsprecherpositionen, da das Verfahren ideal als Fourier-Synthese auf einer Sphäre interpretiert werden kann. Praktisch gibt es auf einer Kugeloberfläche nur wenige exakt equidistante Punktmengen auf Basis der platonischen Körper, dazu sind volle Sphären eine architektonische Herausforderung und aufgrund unseres geringen Lokalisationsfähigkeit im Vertikalen nur von begrenztem Nutzen. Daher werden die Lautsprecher nur in einer oberen Halbsphäre mit nach oben abnehmender Anzahl pro Lautsprechern im Radius installiert.

    Die ambisonische Raumklang-Demonstration ist ein Teil aus dem Stück „Parallel“ von Paul Modler, das bei einer Aufführung zusätzlich bewegliche Hörner und ein Wellenfeld-Array anspricht.

    Im Gegensatz zu Mehrkanal-Tonsystemen berücksichtigt der binaurale Raumklang die Kopfübertragungsfunktion und ist nur für die Erfahrung über Kopfhörer gedacht. Zur Erzeugung von binauralen Signalen kann man auf Kunstkopf– oder In-Ear oder Orginal-Kopf-Mikrofone (OKM) zurückgreifen. Alternativ kann man Schallquellen synthetisch über die HRTF auf die Wirkung auf die Ohren berechnen.

    Zur Erfassung der individuellen HRTF werden Mikrofone in die Ohren installiert und robotergesteuert Lautsprecher an verschiedene Positionen um die Versuchsperson gefahren. Die Lautsprecher spielen dann jeweils Klicks oder Chirps, um die Impulsantwort des Signals, die Head-Related Impulse Response zu bestimmen. Die HRTF ergibt sich dann als Fourier-Transformite der Impulsantwort. Alternativ können auf niedrigerem Niveau auch halbsphärische Lautsprecher wie im Klangdrom statt einer langsamen Robotersteuerung verwendet werden. Impulsantworten existieren grundsätzlich nur auf einer begrenzten Anzahl von Filterpunkten, zwischen denen nach VBAP-Prinzip auch Zwischenpunkte berechnet werden und Klänge aus beliebigen Richtungen im zwischen Punkten im Diskretisierungsgitter abgebildet werden. Eine Herausforderung bleibt die Kopfbewegung, die mit Head-Trackern für einen immersiven Eindruck berücksichtigt werden muss, man sich also zum Klang hindrehen können muss. Das ist eine entsprechende Herausforderung der Virtual Reality, wo die Bewegung des Kopfes auch unmittelbar in die Darstellung berücksichtigt werden muss.

    Die räumliche Abbildung von Tönen ergibt auch neue Möglichkeiten in der Sonifikation, um Informationen nicht nur klanglich unterscheidbar sondern auch räumlich lokalisiert abgebildet werden kann. Dabei ist zu berücksichtigen, dass visuelle Eindrücke akustische Ereignisse verfälschen können. Bei steigender Komplexität der verwendeten Modelle, muss das Verständnis für Sonifikation auch erlernt werden.

    Literatur und weiterführende Informationen S. Carlile: Psychoacoustics, Signification Handbook, Logos Publishing House, 2011. B. N. Walker, M. A. Nees: Theory of Sonification, Sonification Handbook, Logos Publishing House, 2011. A. Hunt, T. Hermann: Interactive Sonfication, Sonification Handbook, Logos Publishing House, 2011.M. A. Gerzon: Periphony: With-height sound reproduction, Journal of the Audio Engineering Society 21.1: 2-10, 1973. V. Pulkki: Virtual sound source positioning using vector base amplitude panning, Journal of the audio engineering society 45.6: 456-466, 1977. M. Noisternig, T. Musil, A. Sontacci, R. Holdrich: 3D binaural sound reproduction using a virtual ambisonic approach, Virtual Environments, VECIMS ’03. 2003 IEEE International Symposium on Human-Computer Interfaces and Measurement Systems, 2003. Podcasts M. Völter, R. Vlek: Synthesizers, Omega Tau Podcast, Episode 237, 2017. T. Pritlove, U. Schöneberg: CRE238 – Neuronale Netze, CRE Podcast, Metaebene Personal Media, 2015. M. Völter, C. Osendorfer, J. Bayer: Maschinelles Lernen und Neuronale Netze, Omega Tau Podcast, Episode 259, 2017 S. Trauth: Klangdom, Funkenstrahlen Podcast, Episode 85, 2016 P. Gräbel: Der Schall, Nussschale Podcast, Episode 16, 2017. T. Pritlove, S. Brill: CRE206 – Das Ohr, CRE Podcast, Metaebene Personal Media, 2014. S. Plahl: Der Klang einer Armbewegung, SWR2 Wissen, 2013.
  • Im Rahmen einer Berufs- und Studienorientierung an Gymnasien (BOGY-Praktikum), bekam Leonard die Gelegenheit bei der iXpoint Informationsysteme GmbH das Terrain Projekt kennen zu lernen, und sprach am Studienzentrum für Sehgeschädigte mit Gerhard Jaworek und Sebastian Ritterbusch über seine Erfahrungen und Ergebnisse.

    Leonard besucht die Mittelstufe eines Karlsruher Gymnasiums und interessiert sich für Softwareentwicklung, Projektmanagement und Informatik, da er in seiner Freizeit mit Programmiersprachen wie Java interessante Projekte beispielsweise zur Erweiterung von Minecraft umsetzen konnte. Die Erweiterungen von Spielen ermöglichen auch Blinden die Partizipation an Multi-User Spielen.

    Das BOGY-Praktikum hatte als Anwendungsproblem die Überquerung einer Fläche oder eines Platzes: Ohne weitere Orientierungslinien können Blinde hier leicht die vorgesehene Richtung verlieren. Daher gibt es im Mobilitätstraining immer ein Kompasstraining, das blinden Menschen die richtungstreue Überquerung erleichtert. Da ein Kompass Parallelverschiebungen nicht messen kann, ergab sich der Ansatz mit der zusätzlichen Nutzung von GPS, um eine zielgenauere und robustere Überquerung zu ermöglichen.

    Das eigentliche Praktikum startete mit Planung: Der Aufgabenbeschreibung, der Zerlegung in Teilprobleme und der Erstellung eines Ablaufplans, mit einem Augenmerk auf einer agilen Vorgehensweise gegenüber eines klassischen Wasserfallmodells. Daran schloss sich am zweiten Tag die Einführung in die Entwicklungsumgebung und Dokumentation des Terrain-Projekts und die Nutzung des Versionsmanagementsystems Git. In den folgenden drei Tagen wurden drei Entwicklungszyklen umgesetzt, jeweils mit einer Detailplanung am Tagesanfang, der Implementierung über den Tag, sowie Tests und Dokumentation am Ende des Tages. Am Freitag kam am Ende noch Gerhard Jaworek hinzu, um das Ergebnis auch aus Nutzersicht zu evaluieren und diskutieren.

    Die Verwendung von GPS zur Überquerung basierte darauf, dass man am Startpunkt den Längen– und Breitengrad der aktuellen Position aufnimmt und dann daraus entweder den Zielpunkt berechnet oder auf dem Weg die aktuelle Position zur Ursprungsposition ins Verhältnis setzt. Da man sich aber hier nun auf einer idealisierten Erdoberfläche in Form einer Sphäre bewegt, wird die Trigonometrie gleich etwas komplizierter, als es in der Schule zunächst behandelt wird.

    Ein wichtiger Aspekt der Entwicklung lag auf der Gestaltung der Mensch-Maschine-Schnittstelle, also der Nutzung von Sprachausgabe, Gestenerkennung und Vibration zur Bedienung des Systems. Darüber hinaus hat Leonard verschiedene unterschiedliche Darstellungen umgesetzt: So kann man sich entscheiden, ob man eine Richtung mit einer Gradzahl, einer Uhrzeit oder sprachlich, wie „etwas rechts“, „etwas links“ mehr oder weniger ausführlich dargestellt bekommen möchte.

    Insgesamt konnte Leonard im Praktikum nicht nur eine Unterstützung für Blinde entwickeln, sondern auch einen Einblick in verschiedene Berufsbilder und Themenbereiche von Softwareentwicklung, Unterinterfacedesign, Projektplanung und -management erhalten, auch wenn eine Praktikumsdauer von einer Woche für so ein Thema natürlich sehr kurz ist.

  • Am 4. April fand in Berlin die Fachtagung „Mobilität im Wandel – Praxisbeispiele und neue Impulse zur BMBF Forschungsagenda“ statt. Sebastian Ritterbusch von der iXpoint Informationssysteme GmbH war dort, stellte das Terrain Projekt vor und spricht mit Gerhard Jaworek vom Studienzentrum für Blinde und Sehbehinderte (SZS) am Karlsruher Institut für Technologie (KIT) über die Veranstaltung im InterContinental Hotel in Berlin. Fachtagung Mobilität im Wandel (1:53:57, 50MB)

    Zum Start der Bekanntmachungen Mensch-Technik-Interaktion für eine intelligente Mobilität (IMO), Elektroniksysteme für das vollautomatisierte Fahren (ELEVATE) und weiterer Projekte aus dem Themenfeld Kommunikationssysteme & IT-Sicherheit lud das Bundesministerium für Bildung und Forschung (BMBF) die geförderten Projekte und Interessierte zum Austausch nach Berlin ein.

    Zur Bekanntmachung ELEVATE lag ein Schwerpunkt auf Projekten zu Radartechnologien, wie beispielsweise das Projekt KameRad zu kombinierten Kamera-Radar-Modulen, das Projekt KoRRund zu konformen multistatischen Radarkonfigurationen zur Rundumsicht oder das Projekt radar4FAD zu universellen Radarmodulen für das vollautomatisierte Fahren, die in einem eigenem Workshop später ihren Cluster auf der Tagung initiierten. In der Linie ELEVATE gab es aber auch weitere Themen wie das Projekt AutoKonf zu automatisch rekonfigurierbaren Aktoriksteuerungen für ausfallsichere automatisierte Fahrfunktionen oder HiBord zu hoch zuverlässigen und intelligenten Bordnetztopologien. Informationen zur Nutzung von Radar-Technologien in der Erdbeobachtung gibt es in der Folge 244 SAR Satelliten und Satellitendatenarchivierung am EOC im Omega Tau Podcast.

    Die Veranstaltung wurde durch eine Begrüßung von Frau Gabriele Albrecht-Lohmar und Herrn Andreas Kirchner für BMBF und einer Einführungskeynote von Herrn Dr.-Ing. Sven Bugiel zu sicheren autonomen Fahrzeugen in der Zukunft eröffnet. Daran schloss sich ein „Project-Slam“ an, in dem sich die rund 20 Projekte jeweils mit etwa 3 Folien in 3 Minuten vorstellen konnten und von Frau Dr. Julia Seebode und Herrn Dr. Marcel Kappel der VDI/VDE Innovation + Technik GmbH moderiert wurden. Die Vorträge waren sehr intensiv, jedoch von der Form natürlich nicht wie Science-Slams, wie sie auch in Karlsruhe oft ausgetragen werden und jungen Forscherinnen und Forschern eine Bühne bieten, ihr Gebiet in 10 Minuten sehr unterhaltsam vorzutragen. Auch aus der Ferne konnte man über Social Media der Fachtagung folgen. Auf die Slams folgten drei parallele Workshops, einmal zum Start des Radar-Clusters in ELEVATE, dann ein Workshop zu Projekten aus der Bekanntmachtung Intelligente Mobilität und einem Workshop zur neue Bekanntmachung Elektronom zur Elektronik für autonomes elektrisches Fahren. Die Tagung endete mit einem Abschlussvortrag von Prof. Dr. Andreas Knie zu vernetzten multimodalen Mobilitätslösungen der Zukunft und Ausklang bei einer Abendveranstaltung.

    In einigen Projekten stellten sich interessante Verbindungen zum Terrain Projekt heraus: Das Projekt KoFFI zur kooperativen Fahrer-Fahrzeug-Interaktion will Systeme entwickeln, die durch neue Interaktionskonzepte zu mehr Sicherheit, Komfort und Sicherheit bei teilautomatisierten Fahrzeugen führen soll. Dabei geht es auch um Fragen der Akzeptanz und natürlicher Sprachkommunikation, wie es mit dem Wunderautos Dudu oder K.I.T.T. in Filmen und Serien vorgedacht wurde. Im Projekt KomfoPilot zu personalisierter Fahrstilmodellierung im automatisierten Fahrzeug soll sich das Auto an den vom Menschen gewünschten Fahrstil anpassen. Das Projekt PAKoS befasst sich personalisierte, adaptive kooperative Systeme für automatisierte Fahrzeuge, das vom Karlsruher Institut für Technologie (KIT) koordiniert wird. Hier wird auch ein Nutzerprofil mit der Erfassung des Fahrerzustands kombiniert, um das Leistungsvermögen des Fahrers zu beurteilen und darauf angepasst zu reagieren.

    Zum Projekt Safety4Bikes, einem Assistenzsystem für mehr Sicherheit von fahrradfahrenden Kindern, waren deren Verbundkoordinator Jochen Meis von der GeoMobile GmbH und Annika Johnsen vom Institut für empirische Soziologie an der Friedrich-Alexander-Universität in Erlangen-Nürnberg dankenswerter Weise zu einem Gespräch bereit. Mit Sensoren an Helm, Fahrrad und weiteren Schnittstellen wird hier die Umgebung erfasst und aufbereitet, um Kindern vor Gefahren zu warnen und für eine sichere Teilnahme am Straßenverkehr zu trainieren. Schwerpunkte sind hier neben der technischen Entwicklung des Systems auch die Identifikation der kritischen Gefahrenstellen und der geeigneten Kommunikation zu den Kindern. Bei der Erstellung von Anforderungsanalysen werden Ergebnisse früherer Projekte einbezogen, wie beispielsweise dem Projekt OIWOB für zum Orientieren, Informieren, Warnen in einer Orientierungshilfe für Blinde, welches von der HFC Human-Factors-Consult GmbH koordiniert wurde.

    Eine Entwicklung von guten Mensch-Maschine-Interaktionen (MTI) ist ein Weg in vielen Schritten: So gab es früher Digital-Mäuse, bei denen sich ein gesteuerter Mauszeiger immer in der gleichen Geschwindigkeit wie von einem digitalen Joystick gesteuert in acht mögliche Richtungen bewegt, und nicht wie wir es jetzt kennen proportional oder überproportional zur physischen Bewegung des Eingabegeräts. Die Entwicklung neuer Sensoren ermöglicht heute eine Bedienung auf Berührung oder durch Bewegung und Drehung des Geräts durch miniaturisierte Inertialsensoren, die Einzug in Smartphone und Tablets gehalten haben. Ein Beispiel für eine Bedienung über Inertialsensoren ist die Anwendung Universe2Go mit der Blinde wie auch sehende Menschen den Sternhimmel wie durch ein Smartphone-Fenster erfahren und hören können.

    In der MTI ist es auch wichtig kurz und prägnant den aktuellen Kontext darzustellen. Visuell werden für solche Identifikationshinweise oft Icons benutzt und diese haben ein akustischen Pendant, die so genannten Earcons: So kann durch einen kurzen und prägnanten Laut den Nutzenden sehr schnell eine wichtige Information oder ein Bezug hergestellt werden. In der Gestaltung solcher Earcons ist neben der Unterscheidbarkeit untereinander auch Distanz zu reellen Geräuschen zu berücksichtigen, damit ein eingesetztes System nicht mit Informationen aus der Realität verwechselt werden kann. Das hapto-akustische Spiel Bob it hat auch einen Spielmodus mit Geräuschen, wodurch gegenüber Sprachausgabe die Spielinformation schneller vermittelt wird.

    Mit Lenkgesten teilautomatisierte Fahrzeuge steuern wie der Reiter das Pferd; das ist das Ziel des Projekts Vorreiter. Auch hier waren Yigiterkut Canpolat vom Institut für Arbeitswissenschaft an der RWTH Aachen und Prof. Dr. Clemens Arzt, Direktor des Forschungsinstituts für öffentliche und private Sicherheit (FÖPS Berlin) an der Hochschule für Wirtschaft und Recht Berlin bereit über ihr Projekt zu sprechen. Hier sollen intuitive Steuerungen entwickelt werden, die Menschen mit körperlichen Einschränkungen die Nutzung von teilautomatisierten Fahrzeugen ermöglichen sollen. Dabei ist nicht nur die technische Entwicklung wichtig, sondern besonders auch die rechtswissenschaftliche Begleitforschung, da die gesetzlichen Voraussetzungen analysiert werden müssen, die bei der Umsetzung Berücksichtigung finden müssen und wo eventuell auch in rechtlicher oder gesetzlicher Sicht Handlungsbedarf besteht. Ein sehr überzeugendes Beispiel für eine gelungene Umsetzung ist das Sam Car Project des industriellen Partners Paravan im Vorreiter-Projekt, wo dem ehemaliger Indy-car Fahrer und seit einem schweren Rennunfall querschnittgelähmten Sam Schmidt mit einer Spezialanfertigung wieder die Steuerung eines Autos ermöglicht wurde.

    Pferde sind jedoch nicht nur einfache Fortbewegungsmittel, sondern können in besonderem Maße Menschen mit Einschränkungen in ihrer Mobilität unterstützen. Ein sehr außergewöhnliches Beispiel bietet hier Sabriye Tenberken, die zu Pferd durch Tibet reiste und als Blinde die Blindenschule Braille without Borders in Tibet eröffnete und darüber auch das Buch Mein Weg führt nach Tibet veröffentlichte.

    Die Fachtagung endete mit dem Fachvortrag von Prof. Dr. Andreas Knie zu vernetzten multimodale Mobilitätslösungen der Zukunft und einer Abendveranstaltung zum Austausch mit den weiteren Teilnehmern der Tagung.

  • Am 18. November 2016 fand an der Fachhochschule Bielefeld ein vom Bundesministerium für Bildung und Forschung (BMBF) und der FH Bielefeld angebotener Workshop zu Einzelaspekten rechtswissenschaftlicher Begleitforschung statt, an dem Johannes Hirsch, Markus Winkelmann und Sebastian Ritterbusch teilnahmen. Im Gespräch und diesem Text werden zwar rechtswissenschaftliche Fragen angesprochen, die Aussagen sind aber keinesfalls als Rechtshinweise oder Rechtsberatung zu verstehen.

    Eine juristische Begleitforschung ist ein Aspekt der ELSI-Begleitforschung, die die Betrachtung von ethischen (ethical), rechtlichen (law) uns sozialen (social) Fragestellungen zu Projekten umfasst. Diese Themen stehen im Zentrum des vom Institut für Technologiefolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT) vorangetriebenen Forschung.

    Im Projekt QuartrBack befasst sich Johannes Hirsch mit der Begleitforschung um eine intelligente Notfallkette im Quartier für Menschen mit Demenz. In rechtlicher Sicht wurden hier insbesonders Aspekte des Datenschutz beleuchtet. Auch in anderen Themenbereichen werden diese Fragestellungen untersucht, so wurde der Institutsleiter Prof. Dr. Armin Grundwald in die von Bundesminister Alexander Dobrindt eingesetzte Ethik-Kommission zu automatisierten Fahren berufen. Auch zu Energiethemen hat Markus Winkelmann am ITAS gesellschaftliche, rechtliche und soziale Fragestellungen betrachtet und begleitet das Terrain-Projekt durch Begleitforschung. Für Sebastian Ritterbusch von der iXpoint Informationssysteme GmbH sind die rechtlichen Fragestellungen einmal für das Projekt Terrain insgesamt aber auch speziell für die Entwicklung der Anwendungen für die Nutzenden von großem Interesse.

    Der Workshop begann mit einem Vortrag von Frau Prof. Dr. jur. Brunhilde Steckler der FH Bielefeld und behandelte Rechtsaspekte im Projekt KOMPASS: Es ging um die Vertraulichkeit und Integrität von Rechtssystemen, was im Rechtssystem alleine schon Aspekte des Persönlichkeitsrechts, Datenschutz, Telemedien, Vertrags- und Haftungsrecht berührt. In der betrachteten Anwendung ging es im Projekt um den Bereich Wearables und Fitness und wie hier Dienste rechtssicher angeboten werden und den Nutzenden die Datenverarbeitung transparent dargestellt werden können. Wie auch häufiger im Verlauf des Workshops kam sie auch auf die besondere Rolle der neuen Datenschutz-Grundverordnung (DS-GVO) der Europräischen Union zu sprechen, die ab Mai 2018 anzuwenden ist und insbesondere auch die Datenschutz-Folgenabschätzung eingeführt (Art. 35 DS-GVO) .

    Der folgende Vortrag von Dipl.-Inf. Christian Burkert (@cburkert_de), früher praemandatum GmbH und jetzt wissenschaftlicher Mitarbeiter an der Universität Hamburg, behandelte Privacy-by-Design in der Produktentwicklung. Von Privacy-enhancing Technologies (PETs) aus den 90ern über Ann Cavoukians 7 Prinzipien des Privacy by Design zog er den zeitlichen Rahmen zur EU-Datenschutzreform von 2012. Die 7 Prinzipien des Privacy by Design geben direkte Handlungshinweise für die Einbettung des Datenschutzes in den Entwicklungsprozess, die im Sinne mit der Datenschutzgrundverordnung DS-GVO als „Datenschutz durch Technikgestaltung“ im Artikel 25 besonderen Einzug in die zukünftige Gesetzeslage gefunden haben, deren Umsetzung durch Verantwortliche mit Maßnahmen gesichert werden soll. An Hand der zwei Beispiele von den „Privacy Czars“ bei Apple und den „In-House Consultants“ bei Google stellte er dar, dass die Verankerung im Unternehmen sehr unterschiedliche Ausgestaltung haben kann.

    Wie wichtig die Verankerung von Datenschutz in Geschäftsprozesse ist, sieht man schon daran, wie eindeutig Menschen im Netz durch ihren Browser identifiziert und verfolgt werden können, beispielsweise durch das Browser Fingerprinting oder mit Cookies. Ein Beispiel für Intervenierbarkeit durch den Nutzer ist das Google Privacy Dashboard, in dem man den Zugriff auf gewisse persönliche Daten widerrufen kann.

    Im Vortrag von Prof. Dr. jur. Iris Kirchner-Freis der MLS LEGAL GmbH Rechtsanwalts- und Fachanwaltsgesellschaft ging es um Datenschutz bei Gesundheitsdaten am Beispiel des Projekts Adaptify. Dies beginnt schon mit der Frage der genauen Definition von Gesundheitsdaten im Sinne des Bundesdatenschutzgesetzes (BDSG) §3 Absatz 9 zu verstehen sind und besonders geschützt werden müssen: Dies umfasst sicher medizinische Informationen, können aber auch körperliche Leistungsdaten betreffen, die im Einsatz von Trackern beim Sport anfallen können. Das White Paper „Annex – health data in apps and devices“ der europäischen Union versucht hier die Definition zu konkretisieren. Bei der Frage der Einwilligung, Datensicherheit und Pseudonymisierung spielt für die Umsetzung in mobilen Lösungen insbesondere das Telemediengesetz (TMG) eine besondere Rolle. Grundlegend müssen nach BDSG den Nutzenden auch das Auskunftsrecht, Löschungs- und Sperrungsrecht und das Berichtigungsrecht eingeräumt werden und technisch-organisatorische Maßnahmen wie beispielsweise Zutritts- und Zugangskontrolle serverseitig umgesetzt werden.

    Die Einbettung von Privacy by Design durch Legal Process Modelling war das Thema des Vortrags von Frau Prof. Dr. jur. Beatrix Weber der Hochschule Hof. Die verpflichtende Datenschutz Compliance der DS-GVO zu Privacy by Design und Default und der Umsetzung interner Strategien für organisatorische Maßnahmen sind unter einer Risikoabwägung umzusetzen: Hier fließt neben dem Stand der Technik, Implementierungskosten und der Art der erhobenenen Daten auch die Eintrittswahrscheinlichkeit und zu erwartende Schwere der Risiken für bedrohte Rechte und Freiheiten mit ein. Dabei sieht sie die Unternehmens-Compliance als Geschäftsprozess, der auch weitere Rechtsthemen wie Urheberrecht, Kartellrecht und ethische Normen abbildet, und grundsätzlich in Phasen der Konzeption, Umsetzung und Adjustierung strukturiert werden kann.

    Von Herrn Prof. Dr. jur. Wolfgang Schild der Universität Bielefeld erhielten wir einen Einblick in rechtliche Fragen der Einwilligung vulnerabler Personengruppen. Grundsätzlich ist eine Einwilligung ein Aufopferungsakt, da man auf einen zustehenden rechtlichen Schutz verzichtet. Der rechtliche Grundsatz wird durch den lateinischen Ausdruck volenti non fit iniuria beschrieben, die Umsetzung muss dafür aber auch rechtlichen Anforderungen genügen: So muss die einwilligende Person den Fähigkeiten der intellektuellen Einsicht und voluntativen Willensbildung befähigt sein, und Informationen erhalten, was geschieht, auf was man verzichtet und welche Risiken, Chancen und Alternativen mit der Einwilligung einhergehen. Dabei ist die Einwilligung keine rechtliche Willenserklärung sondern ein Ausdruck des Selbstbestimmungsrecht und kann im Gegensatz zu geschlossenen Verträgen jederzeit widerrufen werden.

    Der abschließende Vortrag von Dr. jur. Thilo Weichert vom Netzwerk Datenschutzexpertise behandelte die Themen Sensorik, automatische Entscheidungen und Persönlichkeitsschutz. Mit den technischen Entwicklung unter anderem im Mobile Computing und Social Communities wird es möglich automatisiert personalisierte Entscheidungen zu treffen. Beispiele sind hier unter anderem in Medizin, Spiel, Werbung und Arbeitswelt, die auch große Risiken beinhalten können: Durch intransparente Kreditscoring-Verfahren kann das Leben von Menschen beispielsweise radikal beeinflusst werden. Ebenso drohen der Verlust der Vertraulichkeit und Wahlfreiheit, es wird Tür und Tor der Diskriminierung und Manipulation geöffnet und Menschen können schaden nehmen. Daher muss es sowohl eine unbedingte Beachtung der datenschutzrechtlichen Grundlagen und gleichzeitig eine Achtung vor Kernbereichen privater Lebensgestaltung ganz im Sinne von Artikel 7 der europäischen Grundrechte-Charta geben, was in globaler Sicht große Herausforderungen beinhaltet.

    Der Workshop bot ein gebündeltes Bild zur rechtwissenschaftlichen Begleitforschung und war für die Teilnehmenden in vielen Aspekten relevant und lehrreich. Die Darstellung der Fragestellungen und Erkenntnissen aus thematisch verwandten Projekten wird für die Umsetzung im Terrain Projekt eine große Hilfe sein. Besonderer Dank gilt Prof. Dr. Wolfgang Schild und Dr. Thilo Weichert, dass sie uns für persönliche Kommentare in dieser Folge zur Verfügung standen.

    Weiterführende Informationen Das Recht muss mit den technischen Entwicklungen Schritt halten, Pressemitteilung der FH Bielefeld zum Workshop, 22.11.2016.
  • Im Studienzentrum für Sehgeschädigte sprachen Susanne Schneider und Gerhard Jaworek über die Orientierungsveranstaltung für Schülerinnen und Schüler.

    Das Studienzentrum von Prof. Dr. Rainer Stiefelhagen geleitete ist eine interfakultative Einrichtung, die der Informatik zugeordnet ist, und gleichzeitig ein Lehrstuhl. Entstanden ist es aus einem Modellversuch 1987 bis 1993, der Blinden und Sehbehinderten durch Studienmöglichkeiten neue Berufsfelder eröffnen sollte. Der Versuch war so erfolgreich, dass das Studienzentrum zur festen Einrichtung wurde und ist seit 2011 Lehrstuhl mit Professur. Zentrale Aufgaben sind dabei die Unterstützung Blinder und Sehbehinderter Studierender vor ihrem Studium, während des Studiums und beim Übergang in die Arbeitswelt nach dem Studium.

    Ein wichtiges Aufgabenfeld des Studienzentrums ist daher die Information von Studieninteressierten und auch deren Betreuungspersonen. Letzteres wird besonders durch die drei-tägige Orientierungsveranstaltung realisiert, die von Susanne Schneider geplant, organisiert und durchgeführt wird. In den Themen geht es um Arbeitsausstattung, was sind Fragen der Orientierung und Mobilität (O&M), welche Unterstützung ist im Studium erforderlich, wie ist die Wohnsituation, und wer kann helfen, wenn es um juristische Fragestellungen geht. Die Veranstaltung findet jährlich von Montag bis Mittwoch vor dem Feiertag Christi Himmelfahrt statt. Grundsätzlich sollten Blinde und Sehbehinderte an allen Universitäten in Deutschland studieren können, da alle Universitäten Behindertenbeauftragte haben sollten, die bei Schwierigkeiten für die Studierenden angemessene Lösungen finden sollen. Der Workshop soll hier den Interessierten schon im Vorfeld helfen, offene Fragen zu klären und erforderliche Aufgaben anzugehen.

    Da Interessierte aus dem ganzen Bundesgebiet anreisen, kommt es vor, dass es ein Wiedersehen mit Bekannten von anderen Veranstaltungen wie dem International Camp on Computers and Communication (ICC) an dem Gerhard Jaworek letztes Jahr auch teilnahm und dort Workshops zur Astronomie und dem Textsatzsystem LaTeX anbot.

    Informationen werden im Vorfeld an Schulen, Verbände und Hilfsmittelhersteller versendet und auch Daten über mögliche Unterbringungsmöglichkeiten in Karlsruhe bereitgestellt. Die Teilnehmenden können komplett selbstständig oder mit Betreuungspersonen anreisen, das Studienzentrum bietet nach Absprache aber auch Möglichkeiten zur Anreiseunterstützung in Karlsruhe an.

    Die Veranstaltung beginnt nach einer kurzen Vorstellung des Studienzentrums mit einer gegenseitigen Vorstellungsrunde der Interessierten, Begleitpersonen, Mitarbeitenden und aktuellen Studierenden mit Seheinschränkungen des KITs. Ein wichtiger Einstieg sind dabei die Erfahrungsberichte der Studierenden über ihren Beginn des Studiums, ihre Eindrücke, erlebte Herausforderungen und wie sie sei bewältigen konnten. Darauf schließt sich als ein aktives Element ein gemeinsamer und betreuter Besuch der Mensa auf dem Campus Süd des KIT an.

    Im nächsten Programmpunkt wird die Arbeit des Studienzentrum vorgestellt, aufgeteilt in die Gruppen der Blinden und Sehgeschädigten, damit hier verschiedene Schwerpunkte gesetzt werden können. Dabei geht es sowohl um zur Verfügung stehende Hilfsmittel, Dienste wie der Literaturumsetzung wie auch die Fähigkeiten der Studieninteressierten. Hier können Hinweise gegeben werden, ob vor dem Studium noch Kurse zum Orientierungs- und Mobilitätstraining sinnvoll sind, beispielsweise die Braille-Fertigkeiten verbessert werden sollten oder das für das Studium sehr wichtige Tippen mit zehn Fingern trainiert werden sollte.

    Ein wichtiges Thema ist auch der Nachteilsausgleich für Studierende mit Sehbeeinträchtigung. Am KIT fällt dies in den Arbeitsbereich von Frau Angelika Scherwitz-Gallegos, und betrifft natürlich auch besonders den Ablauf von Klausuren: Hier muss entweder inhaltlich genau die gleiche Prüfung unter eventuell leicht veränderten Rahmenbedingungen bestanden werden, oder in Ausnahmefällen von nicht durchführbaren Aktionen wie dem Umgang mit explosiven Chemikalien äquivalente Ersatzleistungen erbracht werden.

    Am KIT gibt es auch ein Sportangebot, und so wird am Nachmittag des ersten Tages auch der Hochschulsport vorgestellt. Neben den Fitnessangeboten wird bei gutem Wetter oft auch die Slackline vorgestellt. Gerade für Menschen mit Sehschädigung ist es sehr wichtig mit Sport den eigenen Körper zu trainieren und kennenzulernen und hier das Angebot im Studium auch zu nutzen. Parallel dazu haben die Begleitpersonen einen Zeitbereich zum Austausch, denn auch für die Unterstützung gibt es spezifische Fragestellungen, die gesondert vertieft werden können. An den beiden Abenden wird die Orientierungsveranstaltung mit einem gemeinsamen Abendessen abgeschlossen und ermöglicht ein besseres Kennenlernen und eine lockere Umgebung für noch offen gebliebene Fragen.

    Der zweite Tag beginnt mit vielen Referenten zu Fragestellungen wie den Wohnmöglichkeiten in Studierendenwohnheimen vom Studierendenwerk, zur Finanzierung der persönlichen Arbeitsmittel, der Eingliederungsunterstützung durch die Stadt Karlsruhe und auch zum Orientierungs- und Mobilitätstraining mit dem Sehwerk. Hier wird auch verdeutlicht, dass für die Vorbereitung des Studiums mindestens ein halbes Jahr an Vorlauf für Anträge, Bewerbung für geeigneten Wohnheimplatz und weiteren Terminen einzuplanen sind.

    Regelmäßig folgt ein Beitrag der RBM Rechtsberatung „Rechte behinderter Menschen“ wo Möglichkeiten bei abgelehnten Bescheiden oder Anträgen, sowie das Vorgehen bei Klagen oder sozial- und verwaltungsrechtlichen Fragen angerissen werden. Es ist auch sehr empfehlenswert einem Selbsthilfeverein, beispielsweise dem Deutschen Blinden- und Sehbehindertenverbandes e.V., beizutreten, da einem dann dieser Rechtsbeistand kostenlos zusteht. Darüber hinaus hilft die Mitgliedschaft auch sehr in der Lobbyarbeit wie beispielsweise in der Diskussion zum Bundesteilhabegesetz.

    Nach einem zweiten Besuch der Mensa am Mittag schließen sich am Nachmittag Besuche einer Wohnung in einem Studierendenwohnheim und der KIT-Bibliothek an, wo man weitere Eindrücke vom Leben und Lernen an einer Universität erhalten und dazu Fragen stellen kann. Darüber hinaus werden möglichst auch Besuche bei den Fakultäten den anvisierten Studienrichtungen ermöglicht, damit ein früher Kontakt mit den Lehrkräften ermöglicht wird.

    Der Schritt ins Studium ist nicht nur ein Schritt in eine universitäre Umgebung, sondern oft auch ein Schritt in eine größere Selbstständigkeit. Oft müssen dazu auch weitere Fertigkeiten erlernt werden, wie das Kochen oder die eigene Wäsche zu machen. Auch hier gibt es Trainingsangebote (LPF = lebenspraktische Fähigkeiten) wie vom Sehwerk, die helfen, auch diesen Schritt gut zu meistern.

    Am dritten Tag besteht die Möglichkeit an einer Vorlesung teilzunehmen, um einen Eindruck von diesen Veranstaltungen zu erhalten und beispielsweise auch die eigenen Hilfsmittel in der Vorlesungssituation zu testen. Weiterhin werden individuelle Gespräche angeboten und nach einem letzten gemeinsamen Mittagessen werden Eindrücke ausgetauscht und Rückmeldungen zur Veranstaltung gegeben.

    Auch wenn die Veranstaltung regelmäßig am Karlsruher Institut für Technologie stattfindet, so richtet sie sich bundesweit an alle Interessierte, die sich mit Blindheit oder Sehbehinderung für ein Studium interessieren.

  • Nora Weinberger und Sebastian Ritterbusch unterhalten sich über Innovationsprozesse in der Technologieentwicklung und das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT):

    Die Analyse von Technikfolgen und den Wechselwirkungen von Technik und Gesellschaft ist äußerst interessant für Themenfelder wie beispielsweise die sozialen Medien in der Wissensgesellschaft, die Endlagersuche für nukleare Endprodukte im Energiesektor, wie auch den Umgang mit dem demographischen Wandel und der Nachhaltigkeit. Viele der Themen sind gesellschaftliche Grand Challenges und werden teilweise schon aus historischen Gründen am KIT länger untersucht: Das in das KIT eingeflossene ehemalige Forschungszentrum Karlsruhe hatte einen Forschungsbereich zur Kernkraft. Der Institutsleiter Prof. Dr. Armin Grunwald war so auch am Abschlussbereicht der Kommission zur Lagerung hoch radioaktiver Abfälle beteiligt und ist Mitglied im unabhängigen Nationalen Begleitgremium zur Endlagersuche.

    Das ITAS ist nicht nur räumlich vom KIT Campus Nord in die Innenstadt und die Gesellschaft gezogen, sondern sucht in vielen Richtungen den Kontakt zu den eigentlichen Experten für den „Lebensalltag“. Ein Beispiel, wie das ITAS die Ergebnisse und Kontroversen zur Diskussion aktiv zu den Bürgerinnen und Bürgern bringt, ist die Veranstaltungsreihe Technik Kontrovers: Hier werden nicht nur Themen vorgestellt, sondern intensiv die Beteiligung von Bürgerinnen und Bürgern in Entscheidungsprozesse gefördert.

    Das Arbeitsgebiet von Nora Weinberger im Terrain Projekt liegt im Bereich der Innovationsforschung: Unter dem Begriff Innovation versteht man hier sowohl die technische Innovation als auch die soziale Innovation in Kombination. Die Betrachtung des Begriffs stellt auch die Frage, welche Innovationen und Technik sich betroffene Menschen eigentlich wünschen. Denn zu leicht können technische Innovationen an den Bedürfnissen der Gesellschaft vorbeigehen. So kann man auf der einen Seite noch im Innovationsprozess unerwünschten Technikfolgen entgegentreten und durch die frühe Beteiligung auch eine höhere gesellschaftliche Akzeptanz erzeugen. Die Veränderungen, die sich in der Gesellschaft durch technische Innovationen ausbilden können, sind ein Aspekt der sozialen Innovationen, die die technische Seite im optimalen Fall begleiten und unterstützen, aber auch eine ganz eigene Entwicklung ausbilden können.

    Eine besondere Herausforderung ist dabei die Technikvorausschau, die in Zusammenarbeit mit Experten verschiedener Bereiche erstellt wird. Dabei wird jedoch keine Zukunft vorhergesagt, sondern es werden mögliche Zukünfte, also mögliche Zukunftsszenarien, diskutiert und analysiert. Wirksam werden die verschiedenen Zukünfte durch ihre Wirkungen, und in der neutralen Bewertung der Folgen können Risiken von Entwicklungen sachlich behandelt und damit beispielsweise politische Entscheidungsträger beraten werden. Dies ist unter anderem ein Arbeitsgebiet des durch das ITAS betriebene Büro für Technikfolgenabschätzung am Bundestag (TAB).

    Ein großes Themengebiet der ITAS ist der demographische Wandel, also der Alterung der Gesellschaft und den unter anderem damit verbundenen steigenden Anforderungen im Bereich der Pflege. Wo zunächst eine Abneigung gegen technische Lösungen vorwiegen kann, ermöglicht die Teilhabe und Partizipation eine gesteigertes Akzeptanzbewusstsein und Interesse an neuen Verfahren.

    Ein Aspekt der alternden Gesellschaft ist die stark steigende Anzahl von Menschen mit Demenz. Demenz ist dabei ein Sammelbegriff für ein Phänomen, das fortschreitend verläuft und durch schwere Verluste höherer kognitiver Funktionen, insbesondere des Gedächtnisses, des Denkens, der Orientierung, der Lernfähigkeit, der Sprache, aber auch des Urteilsvermögens, gekennzeichnet ist. Neben den beschriebenen kognitiven Einbußen gehen Veränderungen des Gefühlslebens, aber auch des Verhaltens mit der Demenz einher, die sich zu Depressivität, Wahn und extremer Unruhe entwickeln können. Mit dem Fortschreiten der Demenz ist ein zunehmender Verlust der geistigen Leistungsfähigkeit festzustellen, der sich unter anderem in einer abnehmenden Fähigkeit zeigt, Alltagsprobleme eigenständig zu lösen, sodass Menschen mit Demenz einen zunehmenden Selbständigkeitsverlust erleben und immer mehr auf Unterstützung angewiesen sind.

    Die extreme Unruhe von Menschen mit Demenz kann sich dabei in einem hohen Bewegungsdrang (sog. „Wandering“) äußern. In Kombination mit den beschriebenen Defiziten können diese zu einem Selbstgefährdungspotential führen, weil eine örtliche Orientierung kaum oder gar nicht mehr möglich ist. Andererseits wird gerade Bewegung als Intervention zur Aktivierung der Gehirnfunktion und zur Teilhabe am sozialen Leben empfohlen. Die Bewegung kann damit als eine wirkungsvolle und nebenwirkungsarme Schlüsselkomponente bei der Pflege und Betreuung von Menschen mit Demenz angesehen werden. Mit ihr ist sowohl eine motorische als auch eine sensorische, aber auch eine soziale Aktivierung verbunden, die sich auf die subjektive Lebensqualität und den funktionellen Status der Menschen mit Demenz auswirken und dazu beitragen, Stürze, Kontrakturen sowie Dekubitus zu verhindern. So können bestehende Ressourcen so lange wie möglich erhalten, und eine hohe Pflegeintensität kann hinausgezögert werden. Die Realisierung von Bewegung vor allem außerhalb der Einrichtung stellt allerdings die Pflegenden, die Bewohner und deren Angehörige, aber auch die Bürger im Quartier vor eine dilemmatische Situation: Einerseits soll die Selbstständigkeit der Menschen mit Demenz gefordert und gefördert werden, andererseits besteht in Abhängigkeit von der Tagesform und den individuellen kognitiven Fähigkeiten der Wunsch der Pflegenden und der Angehörigen nach Sicherheit, was dann häufig mit Formen von Freiheitsentzug korreliert. Dies führt dazu, dass die eigentlich gewollte Selbstbestimmung und Selbstständigkeit durch Sicherheitserwägungen und Furcht vor Selbstgefährdung eingeschränkt wird. Hieraus folgend muss es in der pflegerischen Praxis darum gehen, das dargelegte Spannungsfeld von Freiheit und Selbstbestimmung versus Sicherheit mit den Beteiligten zu thematisieren und Bewegung innerhalb und außerhalb der Einrichtung zu ermöglichen. Ziel ist es, das „Draußen aktiv“ unter dem Motto: „So viel Freiheit wie möglich, so viel Schutz wie nötig“ zu gestalten.

    Ausgehend von diesen spezifischen Problemlagen widmete sich das Movemenz-Projekt der Fragestellung, ob und wie zu entwickelnde technische Artefakte Formen der Unterstützung anbieten können, um die Grundanforderung „Bewegung“ in einem gerahmten Pflegesetting aufrechterhalten, bzw. zu unterstützen. Dafür hat das Forschungsteam die Institutionen für einige Wochen zur teilnehmenden Beobachtung besucht und anschließend mit den beteiligten Personen (Betroffenen, Pflege- und Betreuungskräften, Angehörigen und Ehrenamtlichen sowie Vertretern des Quartiers) die auf Mobilitätsaspekte bezogenen Ergebnisse besprochen. In einem weiteren Schritt wurden die Beobachtungen mit einem Team von Technikentwicklern diskutiert, um technische Lösungsansätze und Entwicklungsmöglichkeiten zu erforschen.

    Basis für die Vorgehensweise im Projekt war der Ansatz der Grounded Theory: Hier wurden alle für die Forscher und Allgemeinheit verfügbaren Informationen wie Webseiten oder die teilnehmende Beobachtung genutzt, um daraus unbeeinflusste Thesen zu formulieren und zu begründen. Die Grounded Theory ist ein weit akzeptiertes sozialwissenschaftliches Vorgehen, um strukturiert und begründet Erkenntnisse erhalten, und erinnert in gewisser Weise nach einem Design Pattern aus der Informatik. Im skandinavischen Film Kitchen Stories von 2003 wird das gewählte Vorgehen der teilnehmenden Beobachtung einer kritischen und gleichzeitig humoristischen Betrachtung unterzogen.

    Ein Ergebnis und Beispiel für eine mögliche Innovation, die sich statt aus einem Technology Push aus den Beobachtungen, Diskussionen mit Betroffenen und den Technikentwicklern also einem Demand Pull herausgebildet hat, ist die Möglichkeit Menschen mit Ortslokalisierung zu helfen. Diese Technikdee wird zusammen mit einer starken sozialen Innovation einem unterstützenden Helfernetz im QuartrBack-Projekt untersucht.

    Den Ansatz neben dem Technology Push auch den Demand Pull zu setzen und im Vorfeld die Technikfolgen zu beachten wird auch im Terrain Projekt umgesetzt: So werden entsprechend interdisziplinäre Experten befragt, um weitere Anforderungen und Aspekte frühzeitig in die Entwicklung einfließen zu lassen. Ebenso werden im Projektverlauf mit Bürgerbeteiligung auch intensiv mögliche Technikfolgen und vorab Bedenken, aber auch Chancen des Technikeinsatzes untersucht.

    Publikationen und weiterführende InformationenN. Weinberger, J. Hirsch: Welche Art von mobilitätsfördernder Technologie ist im Pflegearrangement von Menschen mit Demenz zur Bedarfserfüllung notwendig? Aushandlungsprozesse zwischen Pflegekräften und Technikentwicklern. In: VDE Verband der Elektrotechnik Elektronik Informationstechnik e.V. (Hrsg.): Zukunft Lebensräume. Proceedings des 9. AAL Kongresses 2016. Berlin, Offenbach: VDE 2016, S. 216-220 T. Zentek, N. Weinberger, C. Brändle, J. Hirsch: Analyse von Anforderungen an eine intelligente Notfallkette für Menschen mit Demenz im Quartier – Das Projekt QuartrBack. In: VDE Verband der Elektrotechnik Elektronik Informationstechnik e.V. (Hrsg.): Zukunft Lebensräume. Proceedings des 9. AAL Kongresses 2016. Berlin, Offenbach: VDE 2016, S. 213-215 N. Weinberger, B.-J. Krings, M. Decker: Enabling a mobile and independent way of life for people with dementia – Needs-oriented technology development. In: Dominguez-Rué, E.; Nierling, L. (Hrsg.): Ageing and technology. Perspectives from the social sciences. Bielefeld: transcript 2016, S. 183-204 M. Decker, N. Weinberger: Was sollen wir wollen? Möglichkeiten und Grenzen der bedarfsorientierten Technikentwicklung. In: Weidner, R.; Redlich, T.; Wulfsberg, J.P. (Hrsg.): Technische Unterstützungssysteme. Berlin Heidelberg: Springer Vieweg 2015, S. 19-29 N. Weinberger, M. Decker: Technische Unterstützung für Menschen mit Demenz? Zur Notwendigkeit einer bedarfsorientierten Technikentwicklung. Technikfolgenabschätzung – Theorie und Praxis 24(2015)2, S. 36-45 N. Weinberger, M. Decker, B.-J. Kriegs: Pflege von Menschen mit Demenz–Bedarfsorientierte Technikgestaltung. Schultz, T.; Putze, F.; Kruse, A.(Hg.): Technische Unterstützung für Menschen mit Demenz, Symposium. Vol. 30. No. 1.10. 2014. Podcast A. Grunwald: Armin Grunwald und die Zukünfte, Gespräch mit H. Klein im Resonator Podcast Folge 25, Holger Klein/Helmholtz-Gemeinschaft, 2014.
  • Gerhard Jaworek und Sebastian Ritterbusch sprechen über Hilfsmittel für Menschen mit Blindheit zur Unterstützung von Orientierung und Mobilität (O&M) von damals bis heute.

    Der Langstock ist das wichtigste Hilfsmittel in der Fortbewegung. Durch das Pendeln in der Bewegung wird etwa die Körperbreite abgetastet, unter anderem um Hindernisse zu erkennen und auch den Untergrund wahrzunehmen. Am Untergrund kann man Wegbegrenzungen und taktile Bodenindikatoren, die Bestandteil von Blindenleitsystemen sind, gut erkennen.

    Eine besondere Herausforderung ist das Überqueren von größeren Freiflächen und Plätzen, hier war der Blindenkompass ein sehr gutes Hilfsmittel: Frühere Modelle bestanden aus einer sich mit Magnetfeld zunächst frei ausrichtenden Platte, die zum Ablesen fixiert werden konnte. Auf der Scheibe sind die Himmelsrichtungen und weitere Unterteilungen durch Punktschrift aufgebracht. Zum Einhalten einer Richtung beim Überqueren eines Platzes kann man nun regelmäßig die gewählte Himmelsrichtung kontrollieren und sich bei Bedarf neu ausrichten.

    Sehr wichtig ist auch die Nutzung des Gehörs: Neben den Geräuschen der Umwelt können Schnalzlaute, Klicken oder Klatschen die Umgebung durch Echoortung erfahrbar machen und helfen, Ampelmasten, Abzweigungen und Eingänge zu finden. Inzwischen ist das Klicksonar wichtiger Bestandteil vieler Mobilitätstraining.

    Die Verwendung von GPS-Trackern hat sich auch früh als sehr hilfreich herausgestellt. Bis zum Jahr 2000 wurde das GPS-System im Zuge der Selective Availability absichtlich gestört und konnte für die Öffentlichkeit nur eine Genauigkeit von 100m erreichen. Für Blinde wurde GPS interessant, als diese Ungenauigkeit aufgehoben wurde.

    Mit sprechenden Trackern konnten Pfade aufgezeichnet und wiederholt werden. Außerdem konnten diese als Dateien anderen Personen zur Verfügung gestellt werden. Die einzelnen Punkte wurden jeweils mit Richtungsangaben, wie auf einem Ziffernblatt einer Uhr, vermittelt, z.B. „Bäcker XY in 200m auf 11 Uhr“. Das manuelle Setzen von Pfadpunkten erforderte dabei einige Überlegungen. Die Landmarken müssen stets eindeutig und gleichzeitig robust gegenüber Ungenauigkeiten des GPS sein.

    Ein weiteres verbreitetes Mittel waren auch taktile Karten und Globen- hier wurden und werden Karten fühlbar gedruckt oder gefertigt, damit sie erfahrbar werden. Leider sind diese oft recht groß und unhandlich, so dass sie nicht mobil sind. Einfache schematische Darstellungen, z.B. die Form einer Kreuzung, X-, Y- oder T-Kreuzung können von Mobilitätstrainern oder Begleitpersonen einfach auf die Hand oder den Rücken der blinden Person gezeichnet werden.

    Viele der früheren Hilfsmittel vereinen sich heute in aktuellen Smartphones- exemplarisch sprechen wir über die Features der Apple iPhones, die auf die eine oder andere Art auch auf Smartphones mit anderen Betriebssystemen und Hersteller umgesetzt sind. Im Falle der Apple-Produkte wird die Zugänglichkeit mit dem in das iOS-System integrierten Bildschirmleseprogramme VoiceOver realisiert. Sprachausgabe und veränderte Bedientesten machen dies möglich. Hier können blinde Personen sich beispielsweise Bedienelemente auf dem Touchscreen vorlesen lassen, bevor sie bei Bedarf ausgewählt werden. Ein nettes Feature von VoiceOver ist der sogenannte Bildschirmvorhang. Ist er aktiv, so wird die Beleuchtung ausgeschaltet, die Touch-Funktion bleibt aber erhalten. Somit kann der Akkuverbrauch gesenkt werden und blinde Benutzer können sich sicher sein, dass niemand unbefugtes in ihren Bildschirm schaut.

    Für die Eingabe von Texten bietet der Multitouch-Bildschirm mehrere Möglichkeiten- neben der ertastenden Methode des Tippens wie auf einer Tastatur mit sprachlicher Rückmeldung gibt es auch die Braille-Tastatur, bei der jedes Zeichen durch eine Drückkombination von sechs Fingern im Sinne des Braillezeichens erfolgt. Damit können Texte sehr schnell eingegeben werden. Eine weitere Alternative ist auch die Spracheingabe für Texte.

    Sehr passend sind dafür auch die neuen Entwicklungen bei Smartwatches, so ist beispielsweise die Apple Watch genauso mit VoiceOver zu bedienen und sie liefert bei vielen Anwendungen eine Bedienung des Smartphones ohne dieses aus der Tasche nehmen zu müssen. Zusätzlich sind haptische Signale, die Smartwatches liefern, eine große Bereicherung in der Signalisierung für Navigation und Anwendungen.

    Eine sehr hilfreiche App ist die mitgelieferte Kompass-App, die das Überqueren von Freiflächen und Plätzen deutlich vereinfacht- anstatt dass man beim mechanischen Kompass immer wiederholt die Richtung testet bekommt man hier kontinuierlich die Ausrichtung und damit die Gehrichtung vermittelt.

    Zusammen mit einem Vario kann man mit dem Kompass auch eine gute Orientierung als Mitfliegender im Segelflug erhalten. Einen Eindruck von einem Flug mit einem Motorsegler kann man in der ersten Folge des Omega Tau Podcasts erhalten, denn hier hört man nur und sieht nichts. Das soll nicht heißen, dass Blinde alleine ohne sehende Hilfe Segelfliegen können, aber Gerhard Jaworek fliegt mit Begleitung und navigiert und steuert nach Anweisungen des Piloten, des Marios und des sprechenden Kompasses.

    Auch für die Orientierung am Nachthimmel ist der Kompass sehr hilfreich, wie auch die App Universe2Go, zu der Gerhard Jaworek auch beigetragen hat. Universe2Go ist ein sprechendes Handplanetarium, mit dessen Hilfe blinde Menschen auch Objekte Himmel finden können.

    Weiterhin gibt es viele Navigations- und Orientierungsapps auf Smartphones. Sehr bekannt und populär ist die App BlindSquare, die aus der Open Street Map und Foursquare über die Umgebung informiert. Durch Filter nach Typen und Distanz werden alle bekannten Gebäude und Orte in Richtung und Entfernung in Sprache dargestellt. Dies hilft nicht nur der direkten Orientierung, sondern ermöglicht auch die Erstellung einer Mental Map bzw. kognitiven Karten

    Die Nutzung solcher akustischer Informationen ist natürlich nicht mit normalen Over-Ear oder In-Ear Kopfhörern möglich, denn der normale Hörsinn darf nicht blockiert werden. Hier sind Kopfhörer mit Knochenleitung und Bluetooth-Anbindung eine sehr gute Lösung, da sie die akustischen Signale und Sprachausgaben hörbar machen ohne das normale Hören zu behindern.

    Ergänzend zu Umgebungsinformationen sind Navigationslösungen ein wichtiges Hilfsmittel. Ein Beispiel ist hier die Lösung von Navigon, die neben einer Fußgängernavigation, einer guten Unterstützung über VoiceOver zusätzlich die Karten auch offline- also ohne Netzverbindung- zur Verfügung stellt.

    Die Mailingliste Apple-Freunde bietet eine gute deutschsprachige Plattform über die Zugänglichkeit von Apple-Produkten und Apps auf den mobilen Geräten.

    Eine kostenlose Navigationslösung ist die App ViaOptaNav, die durch große und kontrastreiche Bedienungselemente auch für Personen mit eingeschränktem Sehsinn leichter zu bedienen ist. Sehr schön ist hier auch der Routenüberblick, der im Vorfeld eine virtuelle Begehung des Weges ermöglicht. Zusätzlich können wie bei BlindSquare auch Umgebungsinformationen abgerufen werden, sie beschränkt sich aber auf die Informationen aus dem Kartenmaterial. Außerdem bietet diese App auch eine gute Anbindung an die Smartwatch.

    Ebenfalls gut an die Smartwatch angebunden ist die mit dem Smartphone mitgelieferte Navigationslösung von Apple. In manchen Fällen ist auch die Google Maps Lösung sehr hilfreich, besonders, wenn der öffentliche Nahverkehr in die Navigation mit eingebunden werden soll.

    Für das Aufzeichnen, Weitergeben und spätere Ablaufen von Wegen über GPS-Punkte bietet sich die iOS-App MyWay an. Es gibt sie in einer kostenlosen MyWay Lite Version und in der MyWay Classic in der auch Informationen über die Umgebung abgerufen werden können.

    Zum Mobilitätstraining gehört weiterhin die haptische Vermittlung von Kreuzungstypen und Karten. Zum Zeitpunkt der Aufnahme bietet Touch Mapper einen besonders interessanten Service: Nach Angabe einer Adresse und der gewünschten Auflösung kann man sich eine taktile Karte senden lassen. Alternativ kann man kostenlos ein 3D-Modell herunterladen, das man mit einem 3D-Drucker drucken kann.

    Viele der erwähnten Lösungen verwenden Kartendaten der Open Street Map (OSM), die durch die Zusammenarbeit vieler Menschen entstanden ist und frei zur Verfügung steht. Bisher kann diese freie Karte nicht überall mit der definierten Qualität von kommerziellen Kartenquellen mithalten, doch ist sie in manchen Bereichen sogar aktueller und genauer als die kommerziell erhältlichen Lösungen. Neben monatlichen Treffen bietet die Karlsruher OSM-Community auch halbjährlich größere Events an. Das nächste ist das Karlsruhe Hack Weekend 28.-30. Oktober 2016.

    Informationen über die öffentlichen Verkehrsmittel in der Umgebung erhält man beispielsweise über den Abfahrtsmonitor – hier können die nächsten Haltestellen mit den nächsten Verbindungen abgerufen werden. In Karlsruhe ist das Stadtbahnsystem etwas besonderes: Als erste Zweisystem-Stadtbahn der Welt konnten die S-Bahnen sowohl in der Stadt als auch auf Strecken der Bahn fahren.

    Für die Auswahl und Abfrage für Züge der Deutschen Bahn gibt es den DB-Navigator für eine Vielzahl von verschiedenen mobilen Plattformen. Die Deutsche Bahn bietet auch online buchbare Umstieghilfen an, die man mindestens einen Tag vor der Reise buchen kann. Letztlich können mit der MyTaxi App auch Taxis geordert und auch bezahlt werden.

    Eine besondere Lösung ist die App BeMyEyes, wo blinde Personen Anfragen stellen können, die von Sehenden über eine Videoverbindung beantwortet werden, z.B. ob die Kleidung farblich zusammenpasst, oder was der in die Kamera gezeigte Tetrapack enthält. Auch die fest installierte Foto-App auf dem iPhone ist mit VoiceOver bedienbar. Durch Rückmeldungen, wann und wo ein Gesicht zu sehen ist, können auch blinde Menschen zumindest Personen fotografieren. Das wird sich aber künftig sicherlich auch auf andere Gegenstände ausweiten.

    Ganz ohne Technik ist und bleibt der Blindenführhund für viele blinde Personen eine sichere und lebhafte Lösung für die individuelle und unabhängige Mobilität. Was ihn auszeichnet, ist z.B. die erlernte intelligente Gehorsamsverweigerung. Der Hund begibt sich und seinen blinden Besitzer niemals in Gefahr und verweigert einen Befehl, der eine derartige Situation herbeiführen würde.

  • Im Gespräch mit Daniel Koester am Computer Vision for Human-Computer Interaction Lab (cv:hci) geht es um die Erkennung des freien Weges vor unseren Füßen. Das cv:hci befasst sich mit der Fragestellung, wie Menschen mit Computer oder Robotern interagieren, und wie gerade die Bildverarbeitung dazu beitragen kann. Das Thema lässt sich auch gut mit dem Begriff der Anthropromatik beschreiben, der von Karlsruher Informatikprofessoren als Wissenschaft der Symbiose von Mensch und Maschine geprägt wurde und im Institut für Anthropromatik und Robotik am Karlsruher Institut für Technologie (KIT) http://www.kit.edu/ erforscht und gelebt wird. So wurde der ARMAR Roboter, der elektronische Küchenjunge (Video), ebenfalls am Institut an der Fakultät für Informatik entwickelt.

    Schon früh stellte sich heraus, dass die Steuerung von Programmierung von Computern mit höheren Programmiersprachen wie Fortran, BASIC oder Logo durch Anlehnung an die menschliche Sprache große Vorteile gegenüber der Verwendung der Maschinensprache besitzt. Damit liegt das Thema ganz natürlich im Bereich der Informatik ist aber auch gleichzeitig sehr interdisziplinär aufgestellt: Das Team des KaMaRo (Folge im Modellansatz Podcast zum KaMaRo und Probabilistischer Robotik) entwickelt den Roboter in einem Team aus den Disziplinen Maschinenbau, Elektrotechnik und Informatik.

    Mit der Freiflächenerkennung befasst sich Daniel Koester seit seiner Diplomarbeit, wo er die Frage anging, wie die Kurzstreckennavigation für blinde Personen erleichtert werden kann. Hier besteht eine Herausforderung darin, dass zwischen einer Fußgängernavigation und der Umgebungserfassung mit dem Blindenlangstock eine große informative Lücke besteht. Nach Abschaltung der Selective Availability des GPS liegt die erreichbare Genauigkeit bei mehreren Metern, aber selbst das ist nicht immer ausreichend. Dazu sind Hindernisse und Gefahren, wie Baustellen oder Personen auf dem Weg, natürlich in keiner Karte verzeichnet. Dabei können Informationen von anderen Verkehrsteilnehmern Navigationslösungen deutlich verbessern, wie das Navigationssystem Waze demonstriert.

    Die Erkennung von freien Flächen ist außer zur Unterstützung in der Fußgängernavigation auch für einige weitere Anwendungen sehr wichtig- so werden diese Techniken auch für Fahrassistenzsysteme in Autos und für die Bewegungssteuerung von Robotern genutzt. Dabei kommen neben der visuellen Erfassung der Umgebung wie bei Mobileye auch weitere Sensoren hinzu: Mit Lidar werden mit Lasern sehr schnell und genau Abstände vermessen, Beispiele sind hier das Google Driverless Car oder auch der KaMaRo. Mit Schall arbeiten Sonor-Systeme sehr robust und sind im Vergleich zu Lidar relativ preisgünstig und werden oft für Einparkhilfe verwendet. Der UltraCane ist beispielsweise ein Blindenstock mit Ultraschallunterstützung und der GuideCane leitet mit Rädern aktiv um Hindernisse herum. Mit Radar werden im Auto beispielsweise Abstandsregelungen und Notbremsassistenten umgesetzt.

    Die hier betrachtete Freiflächenerkennung soll aber keinesfalls den Langstock ersetzen, sondern das bewährte System möglichst hilfreich ergänzen. Dabei war es ein besonderer Schritt von der Erkennung bekannter und zu erlernenden Objekte abzusehen, sondern für eine größere Robustheit und Stabilität gerade die Abwesenheit von Objekten zu betrachten. Dazu beschränken sich die Arbeiten zunächst auf optische Sensoren, wobei Daniel Koester sich auf die Erfassung mit Stereo-Kamerasystemen konzentriert. Grundsätzlich ermöglicht die Analyse der Parataxe eine dreidimensionale Erfassung der Umgebung- dies ist zwar in gewissem Maße auch mit nur einer Kamera möglicht, die sich bewegt, jedoch mit zwei Kameras in definiertem Abstand wird dies deutlich leichter und genauer. Dies entspricht dem verbreiteten stereoskopischen Sehen von Menschen mit Augenlicht, doch mitunter kommt es zu Situationen, dass Kinder bei einem schwächeren Auge das stereoskopische Sehen nicht erlernen- hier können temporär Augenpflaster zum Einsatz kommen.

    Zur Rekonstruktion der Tiefenkarte aus einem Stereobild müssen zunächst korrespondierende Bildelemente gefunden werden, deren Parallaxenverschiebung dann die Bildtiefe ergibt. Ein Verfahren dazu ist das Block-Matching auf Epipolarlinien. Für ein gutes Ergebnis sollten die beiden Sensoren der Stereo-Kamera gut kalibriert und die Aufnahmen vor der Analyse rektifiziert sein. Die Zuordnung gleicher Bildelemente kann auch als lokale Kreuzkorrelation gesehen werden. Diese Tiefenrekonstruktion ist auch den menschlichen Augen nachempfunden, denen durch geeignete Wiederholung zufälliger Punkte in einem Bild eine räumliche Szene vorgespielt werden kann. Dieses Prinzip wird beim Stereogrammen oder Single Image Random Dot Stereogram (SIRDS) ausgenutzt. Weiterhin muss man die Abbildungseigenschaften der Kameras berücksichtigen, damit die Parallaxverschiebungen auf horizontalen Linien bleiben. Ebenso müssen Vignettierungen ausgeglichen werden.

    Algorithmen, die nur lokale Informationen zur Identifikation von Korrespondenzen verwenden, lassen sich sehr gut parallelisieren und damit auf geeigneter Software beschleunigen. Für größere gleichmäßige Flächen kommen diese Verfahren aber an die Grenzen und müssen durch globale Verfahren ergänzt oder korrigiert werden. Dabei leiden Computer und Algorithmen in gewisser Weise auch an der Menge der Daten: Der Mensch ist ausgezeichnet darin, die Bildinformationen auf das eigentlich Wichtige zu reduzieren, der Computer hat damit aber große Schwierigkeiten.

    Für den Flowerbox-Testdatensatz (2GB) wurden Videos mit 1600x1200 Pixeln aufgelöste und synchronisierte Kameras in Stereo aufgezeichnet. Beispiele für synchronisierte Stereokamera-Systeme im Consumer-Bereich sind die Bumblebee oder das GoPro 3D-System. Die Kameras wurden leicht nach unten gerichtet an den Oberkörper gehalten und damit Aufnahmen gemacht, die dann zur Berechnung des Disparitätenbildes bzw. der Tiefenkarte verwendet wurden. Ebenso wurden die Videos manuell zu jedem 5. Bild gelabeled, um die tatsächliche Freifläche zur Evaluation als Referenz zu haben. Der Datensatz zeigt das grundsätzliche Problem bei der Aufnahme mit einer Kamera am Körper: Die Bewegung des Menschen lässt die Ausrichtung der Kamera stark variieren, wodurch herkömmliche Verfahren leicht an ihre Grenzen stoßen.

    Das entwickelte Verfahren bestimmt nun an Hand der Disparitätenkarte die Normalenvektoren für die Bereiche vor der Person. Hier wird ausgenutzt, dass bei der Betrachtung der Disparitätenkarte von unten nach oben auf freien Flächen die Entfernung kontinuierlich zunimmt. Deshalb kann man aus der Steigung bzw. dem Gradienten das Maß der Entfernungszunahme berechnen und damit die Ausrichtung und den auf der Fläche senkrecht stehenden Normalenvektor bestimmen. Die bestimmte Freifläche ist nun der zusammenhängende Bereich, bei denen der Normalenvektor ebenso aufrecht steht, wie bei dem Bereich vor den Füßen.

    Die Evaluation des Verfahrens erfolgte nun im Vergleich zu den gelabelten Daten aus dem Flowerbox-Datensatz. Dies führt auf eine Vierfeld-Statistik für das Verfahren. Im Ergebnis ergab sich eine korrekte Klassifikation für über 90% der Pixel auf Basis der realistischen Bilddaten.

    Die veröffentlichte Software ist im Blind and Vision Support System (BVS) integriert, in der erforderliche Module in der Form eine Graphen mit einander verknüpft werden können- bei Bedarf auch parallel. Eine ähnliche aber gleichzeitig deutlich umfassendere Architektur ist das Robot Operation System (ROS), das noch viele weitere Aspekte der Robotersteuerung abdeckt. Eine wichtige Bibliothek, die auch stark verwendet wurde, ist OpenCV, mit der viele Aspekte der Bildverarbeitung sehr effizient umgesetzt werden kann.

    Die Entwicklung der Hardware, gerade bei Mobilgeräten, lässt hoffen, dass die entwickelten Verfahren sehr bald in Echtzeit durchgeführt werden können: So können aktuelle Smartphones Spiele Software des Amiga Heimcomputers in einem interpretierten Javascript Emulator auf der Amiga Software Library auf Archive.org nahezu in Orginalgeschwindigkeit darstellen.

    Für die Umsetzung von Assistenzsystemen für blinde und sehgeschädigte Menschen ist aber auch immer der Austausch mit Nutzern erforderlich: So sind Freiflächen für sich für blinde Personen zunächst Bereiche ohne Orientierbarkeit, da es keinen tastbaren Anknüpfungspunkt gibt. Hier müssen entweder digitale Linien erschaffen werden, oder die Navigation sich weiter nahe an fühlbaren Hindernissen orientieren. Am cv:hci ist der Austausch durch das angeschlossene Studienzentrum für sehgeschädigte Studierende (SZS) unmittelbar gegeben, wo entwickelte Technik sich unmittelbar dem Alltagsnutzen stellen muss.

    Die entwickelte Freiflächenerkennung war nicht nur wissenschaftlich erfolgreich, sondern gewann auch einen Google Faculty Research Award und die Arbeitsgruppe wurde in der Lehre für ihr Praktikum den Best Praktikum Award 2015 ausgezeichnet.

    Literatur und weiterführende Informationen D.Koester: A Guidance and Obstacle Evasion Software Framework for Visually Impaired People, Diplomarbeit an der Fakultät für Informatik, Karlsruher Institut für Technologie (KIT), 2013.D. Koester, B. Schauerte, R. Stiefelhagen: Accessible Section Detection for Visual Guidance, IEEE International Conference on Multimedia and Expo Workshops (ICMEW), 2013.
  • Der Podcast ist Teil des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten TERRAIN Projekts zur Verbesserung der Orientierung und Mobilität von blinden und sehgeschädigten Menschen.

    Ohne den Sehsinn verbleibt unter anderem noch der Hörsinn, der Tastsinn beispielsweise für den Untergrund unter den Füßen und der Langstock. Sehr wichtig ist die Durchführung eines Mobilitätstrainings, wo Wege erlernt werden, aber auch wie man sich in unbekanntem Terrain orientieren kann.

    So behandelt der Podcast, wie Menschen neues Terrain betreten, welche Forschungsergebnisse und Technologie dafür eingesetzt werden können, was es neues im TERRAIN-Projekt gibt, und welche gesellschaftlichen Fragestellungen sich dabei ergeben.

    Der Einzug von Navigationssystemen in unser Leben hat nicht nur Sehenden die Mobilität und Orientierung verbessert, sondern auch für Blinde helfen diese auf Smartphones sich besser in ihrer Umgebung zurecht zu finden.

    Leider können Navigationssysteme nur wenig über den Weg vor einem sagen, Kreuzungen und Ampeln erkennen oder die Position von Hauseingängen identifizieren- hier gibt es noch viel zu tun.