Wearable Computer und Unorthodoxe Ein-/Ausgabegeräte

ˆ unbegrenzte Zahl der gleichzeitigen Nutzer. ˆ hohe Genauigkeit der Standortbestimmung (in der Größenordnung ± 1 m oder besser). ˆ kontinuierliche, schnelle ...
6MB Größe 6 Downloads 181 Ansichten
Technische Universit¨ at Graz Institut fu ¨ r Informationsverarbeitung und Computergestu ¨ tzte neue Medien

Diplomarbeit aus Telematik

Wearable Computer und Unorthodoxe Ein-/Ausgabeger¨ate Ing. Claus Loidl

Betreuer Dipl. Ing. Christof Dallermassl Begutachter Dr. Dr. h. c. mult., O. Univ. Prof. Hermann Maurer

Graz, M¨arz 2004

Widmung Diese Arbeit ist meinen Eltern Inge und Hannes Loidl f¨ ur Ihre jahrelange Unterst¨ utzung gewidmet.

i

I hereby certify that the work reported in this thesis is my own and that work performed by others is appropriately cited.

Signature of the author:

Ich versichere hiermit wahrheitsgem¨aß, die Arbeit bis auf die dem Aufgabensteller bereits bekannte Hilfe selbst¨andig angefertigt, alle benutzten Hilfsmittel vollst¨andig und genau angegeben und alles kenntlich gemacht zu haben, was aus Arbeiten anderer unver¨andert oder mit Ab¨anderungen entnommen wurde.

ii

Danksagung Ich danke den Mitarbeitern des IICM um Professor Hermann Maurer f¨ ur ihre stets sehr freundliche und tatkr¨aftige Unterst¨ utzung in der Zeit am Institut. Besonderer Dank geb¨ uhrt dabei Christof Dallermassl, der mich bei meiner Diplomarbeit ausgezeichnet unterst¨ utzt und motiviert hat und von dessen Wissen ich sehr profitieren konnte. Außerdem bedanke ich mich bei der Firma Puls-Elektronic , die sofort bereit war, uns ein GPS-Ger¨at (E-Trex Summit) f¨ ur die Projektumsetzung zu leihen, welches wir anschließend f¨ ur das Institut auch noch g¨ unstig erwerben konnten. Meinen Eltern, Inge und Hannes Loidl, m¨ochte ich an dieser Stelle f¨ ur ihre Liebe und finanzielle Unterst¨ utzung w¨ahrend des Studiums meinen innigsten Dank aussprechen. Derselbe Dank gilt auch meiner Schwester Sylvia. Schließlich bedanke ich mich bei meiner Freundin Birgit, die mich im Laufe dieser Arbeit sehr oft motiviert hat, und immer ein Ohr f¨ ur meine Probleme offen hatte, auch wenn es manchmal anstrengend war.

iii

Kurzfassung Das Diplomarbeitsthema besteht eigentlich aus zwei unterschiedlichen Teilgebieten der Computerwelt, welche jedoch sehr stark miteinander verbunden sind. Als Erstes wird das Thema ”Unorthodoxe Ein-/Ausgabe-Ger¨ate” behandelt. Hier stellt sich gleich die Frage, wann man eigentlich von einem ”normalen” (herk¨omlichen) E/AGer¨at spricht und wann von einem ”unorthodoxen” (ungew¨ohnlichen) E/A-Ger¨at die Rede ist. Im Grunde ist es eine zeitver¨anderliche und wohl auch subjektive Definition. Da ja bekanntlich die heute ungew¨ohnlichen Ger¨ate, morgen schon fast Altertumswert besitzen. Deshalb ist es sehr interessant, einige Entwicklungen und Forschungsthemen n¨aher zu betrachten und m¨ogliche Tendenzen zu diskutieren. Das zweite Thema mit dem sich diese Arbeit auseinandersetzt, ist der sogenannte ”Wea¨ rable Computer”. Mann darf jedoch nicht irrt¨ umlicher Weise die w¨ortliche Ubersetzung ”Tragbarer Computer” darunter verstehen. Es ist viel mehr als nur ein einfacher PC in Miniaturausf¨ uhrung gemeint. Es werden oft auch die Begriffe ”Ubiquitous (allgegenw¨artig) Computing” oder ”Pervasive (¨ uberall vorhanden) Computing” verwendet. Ein Wearable Computer ist ein allgegenw¨artiges, unauff¨alliges und nat¨ urlich intelligentes Ger¨at. Die Aufgabe der Hard- und Software liegt nicht nur darin, dem Benutzer die richtige Information zum richtigen Zeitpunkt zu liefern. Vielmehr soll einem der Wearable Computer l¨astige Aufgaben abnehmen, ebenso werden neue Anwendungen von ihm u ¨bernommen, wie zum Beispiel die Kontrolle der Vitalfunktionen, um bei Auff¨alligkeiten automatisch den Arzt zu informieren. Durch all diese Hilfestellungen wird man sich mehr auf die we¨ sentlichen Dinge konzentrieren und diese besser erledigen k¨onnen. Uber diese und weitere Anwendungen, Probleme die dabei auftreten, bekannte L¨osungen Hardware die angeboten wird und u ¨ber Zukunftsvisionen wird diese Arbeit Informieren. Zur praktischen Veranschaulichung und zur besseren Einsicht in die Problemwelt des ”Ubiquitous Computing” wurde der sogenannte ”VTG - Virtual Tourist Guide” entwickelt. Dieser besteht aus einem ”Global Positioning System (GPS)”, einem tragbaren Computer sowie einer Anbindung an das Internet. Der ”VTG” bekommt dabei Position und Richtung vom GPS, schickt diese Daten an einen Server, der seinerseits Objektdaten die er durch Scannen einer Karte erh¨alt, an den Client zur¨ uckschickt. Dieser hat neben ersten Informationen u ¨ber Objekte in seiner Blickrichtung nun die M¨oglichkeit direkt Information u ¨ber diese im Internet abzufragen. Der Prototyp wird mit einem einfachen Laptop getestet an dem ein ”ETrex Summit” GPS von Garmin angeschlossen ist, und die geographischen Daten liegen zum Testen lokal in einer MySql–Datenbank.

iv

Abstract Everyday computing without interfering the user respectively not be perceived, is the aim of many development– and research–departments. To get from a normal desktop PC to a ”Wearable Computer” and achieving also a compact format it requires unconventional input and output devices. This thesis will give a brief overview about existing input and output devices and then go into more detail about recent developments and their applications. Basically you can split the work into two sections. The first part gives an overview about ”Unorthodox InputOutput Devices”. Different ways of input or output data and the applied technologies of using them will be discussed. The second part of the thesis will expand on the ”Wearable Computing” concept in more detail with the main emphasis on the basic ideas and developments. In addition examples of applications and projects developed in this area will be given, such as the practical use of a portable information system with position and direction dependent information processing. For an example of ”Wearable Computing”, problems and possible solutions for a Virtual Tourist Guide (VTG) will be analysed and the technologies used to implement it will be explained.

v

Inhaltsverzeichnis 1 Einleitung

1

1.1

Ziel der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1

1.2

Pers¨onliche Motivation der Thematik . . . . . . . . . . . . . . . . . . . . .

2

1.3

Vorausgehende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . .

2

1.4

¨ Kapitel-Ubersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3

2 Unorthodoxe Ein-/Ausgabeger¨ ate 2.1

4

Eingabeger¨ate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6

2.1.1

Tastatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

2.1.2

Zeigeger¨ate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.1.3

Handschrifterkennung

2.1.4

Spracherkennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.1.5

Datenhandschuhe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2.1.6

Dexterous manipulators . . . . . . . . . . . . . . . . . . . . . . . . 22

2.1.7

Datenanzug . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.1.8

Elektronische Stoffe und Sensoren . . . . . . . . . . . . . . . . . . . 22

2.1.9

Elektronischer Schmuck . . . . . . . . . . . . . . . . . . . . . . . . 26

. . . . . . . . . . . . . . . . . . . . . . . . . 15

2.1.10 Video . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.2

Ausgabeger¨ate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2.1

Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 HMD mit Display . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 HMD mit Retinaprojektion . . . . . . . . . . . . . . . . . . . . . . 30 Display-Folien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 Weitere Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.2.2

Haptische Ger¨ate . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 Force Feedback . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

vi

INHALTSVERZEICHNIS

vii

Tactile Feedback . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.3

2.2.3

Audio–Ausgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.2.4

Ger¨ uche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

Forschung und Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3 Wearable Computing 3.1

37

Einf¨ uhrung Wearable Computing . . . . . . . . . . . . . . . . . . . . . . . 37 3.1.1

Was ist Wearable Computing? . . . . . . . . . . . . . . . . . . . . . 37

3.1.2

Die Betriebsarten des Wearable Computing

3.1.3

Die Eigenschaften des Wearable Computing . . . . . . . . . . . . . 40

. . . . . . . . . . . . . 39

3.2

Geschichtlicher R¨ uckblick

. . . . . . . . . . . . . . . . . . . . . . . . . . . 41

3.3

Tragbarkeit: Tragekomfort . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

3.4

Energie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.4.1

Energiespeicher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

3.4.2

Energieerzeugung und Energieverbrauch . . . . . . . . . . . . . . . 46

3.5

St¨orfaktoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

3.6

Projekte im Wearable Computing . . . . . . . . . . . . . . . . . . . . . . . 50 3.6.1

Wearable im Tourismus . . . . . . . . . . . . . . . . . . . . . . . . . 51 Cyberguide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 ArcheoGuide – Virtueller Reisef¨ uhrer . . . . . . . . . . . . . . . . . 56 Deep Map . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 Mobiles GEO-WWW . . . . . . . . . . . . . . . . . . . . . . . . . . 58 Touring Machine . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Mobile Journalist Workstation . . . . . . . . . . . . . . . . . . . . . 60 Indoor/Outdoor Collaboration . . . . . . . . . . . . . . . . . . . . . 61 REAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

3.7

3.6.2

Wearable Computing als Produktivit¨atsfaktor . . . . . . . . . . . . 64

3.6.3

Wartung von Flugzeugen . . . . . . . . . . . . . . . . . . . . . . . . 64

Forschung im Bereich ”Wearable Computing” . . . . . . . . . . . . . . . . 65 3.7.1

Digital Life Consortium . . . . . . . . . . . . . . . . . . . . . . . . 65

3.7.2

Technische Universit¨at Darmstadt . . . . . . . . . . . . . . . . . . . 65

3.7.3

Universit¨at Bremen (TZI) . . . . . . . . . . . . . . . . . . . . . . . 67

3.7.4

Technische Universit¨at Linz (Software Group) . . . . . . . . . . . . 69

3.7.5

Frauenhof IPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

INHALTSVERZEICHNIS

3.8

viii

Philosophische Betrachtung . . . . . . . . . . . . . . . . . . . . . . . . . . 81

4 Projekt - Virtual Tourist Guide (VTG)

83

4.1

Projektidee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

4.2

Bildformate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 4.2.1

DXF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

4.2.2

Shapefile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

4.2.3

SVG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

4.3

Kartenmaterial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

4.4

Positionsbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 4.4.1

GPS–Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 Historisches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 Grundprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 Messmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 Fehlereinfl¨ usse und Genauigkeit . . . . . . . . . . . . . . . . . . . . 99 Galileo - Europ¨aisches Satellitennavigationssystem . . . . . . . . . . 103

4.5

Realisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 4.5.1

Objektdatenaufbereitung . . . . . . . . . . . . . . . . . . . . . . . . 104

4.5.2

VTG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

4.5.3

GPSTool . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

4.5.4

Mapserver . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Algorithmus f¨ ur Objektsuche

4.5.5

. . . . . . . . . . . . . . . . . . . . . 113

Testumgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

5 Schlußworte

116

6 Anhang

117

6.1

Linkliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 6.1.1

Akademie & Forschung . . . . . . . . . . . . . . . . . . . . . . . . . 117

6.1.2

Arbeitskreise & Symposien . . . . . . . . . . . . . . . . . . . . . . . 118

6.1.3

Unorthodoxe Ein-Ausgabeger¨ate . . . . . . . . . . . . . . . . . . . . 118 Tastatur und Maus . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Spracherkennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 Display

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

GPS und Karthografie . . . . . . . . . . . . . . . . . . . . . . . . . 119

INHALTSVERZEICHNIS

ix

Kleidung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 Verschiedenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 6.1.4 Bibliography

Wearable Computer

. . . . . . . . . . . . . . . . . . . . . . . . . . 120 121

Abbildungsverzeichnis 2.1

Verschiedene ungew¨ohnliche E/A-Ger¨ate . . . . . . . . . . . . . . . . . . .

5

2.2

Twiddler Einhandtastatur . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

2.3

Flexible Tastatur aus Stoff als PDA Keyboard verwendet . . . . . . . . . .

9

2.4

Tastatur auf einer Krawate . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

2.5

Wasserdichte flexible Keyboards . . . . . . . . . . . . . . . . . . . . . . . . 10

2.6

Ergonomische Tastatur ”Professional II” von Datahand . . . . . . . . . . . 10

2.7

Scheibentastatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.8

Trackball . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.9

Eine Ringmaus mit Dreipunkt–Bewegungserkennung . . . . . . . . . . . . 12

2.10 Eine weitere Version der Ringmaus, jedoch mit Kabel . . . . . . . . . . . . 12 2.11 Funktionsweise und Handhabung des Finring . . . . . . . . . . . . . . . . . 13 2.12 Kopfmaus ”HDMaster” und Stirnbandmaus ”Mousamatic” . . . . . . . . . 13 2.13 Beispiele von Touchscreen-Anwendungen . . . . . . . . . . . . . . . . . . . 15 2.14 Handschrifterkennung mit Stift und mit Sensorleiste . . . . . . . . . . . . . 15 2.15 Arbeiten mit einem Tablett . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.16 Datenhandschuh mit Fingernagelsensor . . . . . . . . . . . . . . . . . . . . 21 2.17 Nicht nur eine tragbare Tastatur ist der sogenannte Scurry . . . . . . . . . 21 2.18 Computer als Parka getarnt . . . . . . . . . . . . . . . . . . . . . . . . . . 24 ¨ 2.19 Pullover mit Kopfh¨orer am Kragen und Bedientasten am Armel . . . . . . 24 2.20 Schmuck als Versteck f¨ ur E/A–Ger¨ate . . . . . . . . . . . . . . . . . . . . . 26 2.21 Schmuck als Versteck f¨ ur E/A–Ger¨ate . . . . . . . . . . . . . . . . . . . . . 27 2.22 Thad Starner mit einem HMD von MicroOptical [Mic99] . . . . . . . . . . 29 2.23 HMD von MicroOptical

. . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2.24 Direkte Retinaprojektion von Microvision [Mic03] . . . . . . . . . . . . . . 31 2.25 Einer der ersten Foliendisplays . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.26 Foliendisplay mit Farbdarstellung . . . . . . . . . . . . . . . . . . . . . . . 32 x

ABBILDUNGSVERZEICHNIS

xi

2.27 Blu; Konzept von Lunar Design [Des01] . . . . . . . . . . . . . . . . . . . . 33 2.28 Displays verschiedenster Art . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.29 Designsstudie eines Bedufters . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.1

Modell MA-IV von Xybernaut mit HMD und Armtastatur . . . . . . . . . 38

3.2

Schuh mit eingebauten Piezzoelement und Rotationsgenerator als Energieerzeuger. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

3.3

¨ K¨orperenergiequellen im Uberblick. Die Gesamtenergie je Aktion ist in Klammern angegeben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

3.4

Designermodell eines Kleidungsst¨ uckes und eines HMD . . . . . . . . . . . 50

3.5

Ausschnitt eines Geb¨audefl¨ ugels mit verschiedenen Sensoren bzw. Zellen . . 54

3.6

Teil einer hierarchischen Struktur f¨ ur Gebiete . . . . . . . . . . . . . . . . 54

3.7

Darstellung eines virtuellen Denkmals in der realen Umgebung . . . . . . . 56

3.8

Aufbau des Archeoguide–Systems . . . . . . . . . . . . . . . . . . . . . . . 57

3.9

MARS System im Einsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

3.10 Aufbau des MARS Prototypen . . . . . . . . . . . . . . . . . . . . . . . . . 61 3.11 Der mobile Journalist mit Informationsanzeigebeispiel . . . . . . . . . . . . 62 3.12 Ansicht des Campus mit Flaggen, Information und Links, sowie einer Routenanzeige . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 3.13 Ausr¨ ustung der Navigationshilfe . . . . . . . . . . . . . . . . . . . . . . . . 63 3.14 Reparatur eines Flugzeuges mit Hilfe eines Wearable Computers . . . . . . 64 3.15 Modell des Talking Assistant . . . . . . . . . . . . . . . . . . . . . . . . . . 66 3.16 Systemarchitektur des Talking Assistant . . . . . . . . . . . . . . . . . . . 67 3.17 Schema der Infrastruktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.18 Elemente der Infrastruktur . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.19 Forschungsbereiche der Software Group . . . . . . . . . . . . . . . . . . . . 70 3.20 R¨aume mit Anzeige der anwesenden Personen . . . . . . . . . . . . . . . . 72 3.21 R¨aume mit Anzeige der anwesenden Personen . . . . . . . . . . . . . . . . 73 3.22 Schema des Systems von CONTEXT . . . . . . . . . . . . . . . . . . . . . 77 3.23 Der ”Context–Aware” Internetkoffer . . . . . . . . . . . . . . . . . . . . . 78 3.24 Komponenten von ROOMWARE . . . . . . . . . . . . . . . . . . . . . . . 80 4.1

Ablauf einer Objekterkennung . . . . . . . . . . . . . . . . . . . . . . . . . 84

4.2

Zylindrische Abbildung [HG94] . . . . . . . . . . . . . . . . . . . . . . . . 89

4.3

Transversale Zylinderprojektion [Wer95] . . . . . . . . . . . . . . . . . . . 89

ABBILDUNGSVERZEICHNIS

xii

4.4

Die 3 Meridianstreifen des Gauß-Kr¨ uger-Systems [Wer95] . . . . . . . . . . 90

4.5

GKM und BMN im Vergleich [Wer95] . . . . . . . . . . . . . . . . . . . . . 91

4.6

Ein Ausschnitt der Katasterdaten der Grazer Innenstadt . . . . . . . . . . 91

4.7

Schematischer Aufbau eines GPS Empf¨angers. [See89] . . . . . . . . . . . 96

4.8

Mehrwegeffekt [See96] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

4.9

Unterschiede in der Satellitengeometrie [Wel86] . . . . . . . . . . . . . . . 102

4.10 Erreichbare Genauigkeiten der unterschiedlichen Mess– und Auswerteverfahren [Sch94] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 4.11 Architektur der Softwareumgebung . . . . . . . . . . . . . . . . . . . . . . 105 4.12 Objektdaten Definition mit Hilfe von ”AutoCAD Map” . . . . . . . . . . . 106 4.13 ”GPS–Daten” und ”Viewing Range” (links); ”Objekt–Information” (rechts) 108 4.14 Darstellung der Daten einer Abfrage im Browser . . . . . . . . . . . . . . . 109 4.15 Aufbau der Datenbank f¨ ur den VTG . . . . . . . . . . . . . . . . . . . . . 111 4.16 Datenbank mit angezeigten Propertyeintr¨agen . . . . . . . . . . . . . . . . 113 4.17 Approximation des Blickfeldes durch Rechtecke . . . . . . . . . . . . . . . 114 4.18 Ablauf einer Objekterkennung . . . . . . . . . . . . . . . . . . . . . . . . . 115

Tabellenverzeichnis 3.1

Werte von herk¨ommlichen Energiequellen und dem Energieverbrauch einzelner Rechner. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

3.2

Energieverbrauch bei verschiedenen Aktivit¨aten.

4.1

Datenbankfiles die aus den Shapefiles erzeugt werden.

4.2

Fehlerquellen und Fehlerg¨oßen bei der GPS–Positionsbestimmung.

xiii

. . . . . . . . . . . . . . 47 . . . . . . . . . . . 92 . . . . 101

Kapitel 1 Einleitung Der Computer als st¨andiger Wegbegleiter ohne st¨orend aufzufallen bzw. gar nicht bemerkt zu werden, ist schon seit l¨angerem das Ziel einiger Forschungs- und Entwicklungsabteilungen. Um jedoch von einem PC am Schreibtisch zu einem wearable Computer zu gelangen, bedarf es außer einer kompakteren Bauweise auch noch unkonventioneller Ein- und Ausgabeger¨ate, neuer Software und vor allem vieler neuer Ideen zur Anwendung dieser innovativen Technologien. ¨ Mit dieser Arbeit soll ein Uberblick u ¨ber bereits am Markt befindlicher Ger¨ate und Applikationen verschafft werden, aber auch weitere Entwicklungen in diesem Bereich sollen gezeigt werden. Weiters wird die Frage gestellt, welche Einsatzgebiete denkbar w¨aren und welche bereits Realit¨at sind.

1.1

Ziel der Arbeit

Die vorliegende Arbeit versucht einen m¨oglichst breiten, theoretischen sowie praxisorien¨ tierten Uberblick der zu diesem Zeitpunkt bekannten Entwicklungen und Forschungen im ¨ Bereich des Umbiquitous Computing zu geben. Der Uberblick soll dabei folgende Punkte umfassen: ˆ Geschichtlicher R¨ uckblick ˆ Produkte die bereits Kommerziell erh¨ altlich sind ˆ Prototypen von neuen Entwicklungen ˆ Zukunftsvisionen ˆ Praktische Anwendungen ˆ Veranschaulichung anhand des Projektes ”VTG - Virtual Tourist Guide” ˆ Schlußfolgerungen

Es soll in den angef¨ uhrten Punkten auf praxisbezogene Problemstellungen eingegangen werden. Auftretende Schwierigkeiten, sowie St¨arken und Schw¨achen der angesprochenen 1

KAPITEL 1. EINLEITUNG

2

Produkte und Anwendungen sollen diskutiert werden und als Grundlage f¨ ur den Einstieg in diese Thematik dienen. Ein Res¨ umee, der aus der Untersuchung und praktischen Arbeit gewonnenen Erkenntnisse sowie ein Ausblick auf die zu erwartenden Entwicklungen werden diese Arbeit beschließen.

1.2

Pers¨ onliche Motivation der Thematik

Neben der Faszination die der weite Bereich des Umbiquitous Computing bietet, war f¨ ur mich die hervorragende Unterst¨ utzung von Seiten des Institutes (IICM) und im besonderen von Christof Dallermassl ein wesentlicher Motivationsfaktor. Die vielen, zum Teil sehr unterschiedlichen Anwendungsm¨oglichkeiten und die damit verbundenen Problemstellungen mit denen man immer wieder konfrontiert wird, machen das Arbeiten in diesem Bereich der Computertechnologie sehr abwechslungsreich. Alleine im Praktischen Teil dieser Arbeit war man einer Vielzahl von sehr unterschiedli¨ chen Problemen gegen¨ ubergestellt. Schon die Uberlegung, welche sinnvollen Anwendungen denn realisiert werden k¨onnten, f¨ uhrte zu der Erkenntnis, dass zwei K¨opfe gemeinsam, mehr Ideen hervorbringen als zwei Personen die f¨ ur sich selbst dar¨ uber nachdenken. Neben programmiertechnischen Problemen, trugen auch noch theoretische Fragestellungen wie Koordinatensysteme und deren Transformation, zu einem interessanten Arbeitsalltag bei. ”Diese Technologien haben nicht nur eine Zukunft, sie haben auch eine Gegenwart, und dies impliziert ihre Geschichte”

1.3

Vorausgehende Bemerkungen

Es wurde versucht immer eine Referenz zu den angeschnittenen Thematiken zu geben, um eine Vertiefung in gewisse Bereiche durch weitere Literatur zu erm¨oglichen. Die deutschsprachige Begriffswelt der Telekommunikation und Informationstechnologie orientiert sich sehr stark an den ¨aquivalenten englischen Begriffen. Aufgrund der rasanten Entwicklung der beiden Bereiche ist die Rechtschreibung vieler neuer Begriffe im Deutschen noch nicht gekl¨art. Soweit der DUDEN bereits eine genaue Rechtschreibung f¨ ur ein verwendetes Wort vorsieht, wird sie in dieser Arbeit ber¨ ucksichtigt. Im Zweifelsfall wird auf die englischsprachige Form des Wortes eins-zu-eins zur¨ uckgegriffen, wie etwa beim Begriff Wearable Computer. Englischsprachige Begriffe wurden ohne spezielle Anpassung an die deutsche Sprache u ¨bernommen, da sie die Sache naturgem¨aß vom Ursprung her besser beschreiben. Diese Arbeit versucht sehr sachbezogen an die diskutierten Themen heranzugehen und pers¨onlich gemachte Erfahrungen einzubringen. Im Falle der theoretischen Untersuchung wurden die Dokument-Adressen zitierter Autoren und Verweise auf allgemeine Informationsquellen angegeben. Die Leser der PDF-Version dieser Arbeit kommen in den zus¨atzlichen Genuß, gewohnter Hyperlinks und eines mit PDF-Bookmarks realisierten Inhaltsverzeichnisses.

KAPITEL 1. EINLEITUNG

3

Erkl¨ arung zum Programmcode: Der Kommentar zu den abgedruckten Listings behandelt immer die wesentlichen Punkte der diskutierten Problemstellung und nimmt keinen Bezug auf allgemeine Eigenschaften der eingesetzten Programmiersprache. Diese Arbeit setzt ein grunds¨atzliches Verst¨andnis der Programmentwicklung und Kenntnisse in zahlreichen Programmiersprachen voraus. Zu den Sprachen z¨ahlen etwa Java, JavaScript und HTML.

1.4

¨ Kapitel-Ubersicht

Kapitel 1 Einleitung: Allgemeine Erkl¨arung des Diplomarbeits-Themas. Begr¨ undung der Motivation zu diesem Projekt. Und vorausgehende Bemerkungen u ¨ber den Inhalt und den Aufbau dieser schriftlichen Arbeit. Bezug auf Arbeiten welche sich mit den hier behandelten Themen befassen. Kapitel 2 Unorthodoxe Ein-/Ausgabeger¨ate: F¨ ur verschiedene Anwendungen, in unterschiedlichen Umgebungen, bei anderen Voraussetzungen braucht man immer wieder spezielle Eingabeger¨ate und Ausgabeger¨ate. Welche Arten es gibt und vor allem die unorthodoxen Ausf¨ uhrungen sind Thema dieses Kapitels. Ebenfalls werden Technologien die man dabei verwenden kann vorgestellt. Kapitel 3 Wearable Computing: Es gibt bereits unendlich viel an Information und Arbeiten im Bereich ”Wearable Compu¨ ting”. In diesem Kapitel wird eine kleine Einf¨ uhrung und ein Uberblick u ¨ber die wesentlichen Bereiche dieses Themas gegeben. Was man eigentlich unter ”Wearable Computing” versteht und wie die geschichtliche Entwicklung in diesem relativ jungen Forschungsgebiet aussieht. Auf Technologien die man dabei einsetzt wird hier ebenfalls eingegangen. Kapitel 4 Projekt - Virtual Tourist Guide (VTG): Dieses Kapitel beschreibt das Projekt VTG – Virtual Tourist Guide. Es werden der Aufbau des Projektes und die aufgetretenen Schwierigkeiten angesprochen. Auch eingesetzte Technologien werden aufgezeigt und kurze Erl¨auterungen der Spezialgebiete wie GPS, Karthographie und verwendete Bildformate werden erl¨autert. Kapitel 6 Anhang: Hier findet man eine Linkliste mit URLs f¨ ur alle angesprochenen Themenbereiche. Diese Liste stelle die w¨ahrend dieser Arbeit gesammelten Bookmarks dar, wobei darauf geachtet wurde, daß nur die zum Zeitpunkt der Fertigstellung dieser Arbeit erreichbare Links angef¨ uhrt sind.

Kapitel 2 Unorthodoxe Ein-/Ausgabeger¨ ate Es stellt sich gleich einmal die Frage, wann ein E/A–Ger¨at eigentlich unorthodox ist. Liegt es daran, daß es selten verwendet wird, oder ist der Grund weshalb man es als ungew¨ohnlich bezeichnet der, daß es neu ist und anders funktioniert als bisher verwendete Ger¨ate. Das Aussehen ist mit Sicherheit ein Bestandteil der einem zu der Bezeichnung unorthodox f¨ uhrt. Somit ist jedoch gezeigt, daß ungew¨ohnliche E/A-Ger¨ate bei h¨aufiger Verwendung zu gew¨ohnlichen Gegenst¨anden werden. Es ist also eine Gewohnheitssache, denn schon das h¨aufige Sehen eines Ger¨ates macht es f¨ ur uns zu einem gew¨ohnlichen Gegenstand. Damit soll gezeigt werden, daß einige der in Folge angef¨ uhrten unorthodoxen E/A-Ger¨ate nur zum Zeitpunkt des Verfassens der Arbeit auch als solche bezeichnet werden k¨onnen. In naher Zukunft werden wohl einige dieser Ger¨ate als eher gew¨ohnlich bezeichnet werden. Deshalb sollte man die Bezeichnung ”unorthodox” f¨ ur diese Ger¨ate auch als zeitlich begrenzt ansehen. Zu Beginn der Computer–Programierung war eine Tastatur noch eine Zukunftsvision, es wurden Verbindungen gesteckt oder Schalter umgelegt, um einen Code einzugeben. Eine Spracheingabe klang wohl damals ziemlich futuristisch, um nicht zu sagen utopisch. Nach der Tastatur als Eingabeger¨at und einem Monitor als Anzeigeger¨at, war die Maus ein willkommenes Hilfsmittel um schnell und einfach in graphischen Oberfl¨achen zu navigieren. ¨ Heutzutage ist es gar nicht mehr so einfach sich einen Uberblick u ¨ber die verschiedensten Keyboards, Maus-Arten, Joysticks, usw. zu machen. Auch eine durch die Spieleindustrie sehr bekannt gewordene Technologie, das so genannte Force–Feedback, wird bereits vielseitig eingesetzt. Es kann jedoch durch spezielle Einsatzgebiete immer noch als unorthodox bezeichnet werden. Bei dieser Technik wird eine Gegenkraft oder ein Vibrieren erzeugt. Dies kann man f¨ ur verschiedenste Anwendung nutzen. Zum Beispiel um f¨ ur Blinde das Navigieren am Desktop zu erleichtern oder u ¨berhaupt zu erm¨oglichen. Eine Vibration kennzeichnet dabei das Bewegen u ¨ber ein Objekt und mit einer Gegenkraft l¨aßt sich der Bildschirmrand erkennen. Ein unorthodoxen E/A–Ger¨at zu erzeugen ist auch m¨oglich indem man eine bekannte Funktionalit¨at (Mikrofon, Display, Tastatur,...) in einen ebenso allt¨agliche Gegenst¨ande integriert. Ein Beispiele daf¨ ur w¨ahren das Mikrofon in einer Halskette, ein Miniaturlaut¨ sprecher in einem Ohrring, ein Display in der Armbanduhr oder eine Tastatur am Armel einer Jacke aufgen¨aht. 4

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

5

In weiterer Folge werden einige dieser M¨oglichkeiten gezeigt (Twiddler, Stofftastatur, Fingermaus, Foliendisplay, HMDs,. . . )

Abbildung 2.1: Verschiedene ungew¨ohnliche E/A-Ger¨ate

2.1

Eingabeger¨ate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

2.1.1

Tastatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

2.1.2

Zeigeger¨ate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.1.3

Handschrifterkennung

2.1.4

Spracherkennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.1.5

Datenhandschuhe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.1.6

Dexterous manipulators . . . . . . . . . . . . . . . . . . . . . . . . 22

2.1.7

Datenanzug . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.1.8

Elektronische Stoffe und Sensoren . . . . . . . . . . . . . . . . . . . 23

2.1.9

Elektronischer Schmuck . . . . . . . . . . . . . . . . . . . . . . . . 26

. . . . . . . . . . . . . . . . . . . . . . . . . 15

2.1.10 Video . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

2.2

6

Ausgabeger¨ate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2.1

Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 HMD mit Display . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 HMD mit Retinaprojektion . . . . . . . . . . . . . . . . . . . . . . 30 Display-Folien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 Weitere Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2.2.2

Haptische Ger¨ate . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Force Feedback . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Tactile Feedback . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.3

2.1

2.2.3

Audio–Ausgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.2.4

Ger¨ uche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

Forschung und Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . 35

Eingabeger¨ ate

In nicht all zu ferner Zukunft wird eine Maschine seinem Nutzer die W¨ unsche von den Lippen oder den Augen ablesen oder nur der Ber¨ uhrung des Nutzers folgen, bevor dieser in der Lage ist sein Anliegen u ucken. Ein wirklich ”intuitives” User Interface ¨berhaupt auszudr¨ eines Computers oder Kommunikationsger¨ates wird es dem Nutzer ersparen, eine Sprache zu finden, die dem Ger¨at verst¨andlich ist. Die intuitivste Art, wie wir mit einer Maschine kommunizieren wird sich stark unterscheiden bei Nutzern (bedingt durch z.B. Kultur, Erziehung und m¨ogliche Behinderungen), Anwendungen (z.B. einfache Befehle oder Texteingaben, Auswahlm¨oglichkeiten sowie komplexe Kombinationen) und Umwelteinfl¨ usse (z.B. mobil oder station¨arer Einsatz, St¨oreinfl¨ usse, Rauschen sowie Lichtverh¨altnisse). User Interfaces wurden auf verschiedenste Weise verbessert, um die Mensch–Maschine Interaktion zu vereinfachen. Nachdem DOS Applikationen die ersten Pull–down Men¨ us und Dialoge anboten, erm¨oglichen Windows verwandte User Interface bereits einen umfassenderes Portfolio von grafischen Elementen, wie z.B. Icons, Scrollbars, u ¨berlappende Fenster, und der grafischen Eingabe u ber die Standard Maus. Erst in letzter Zeit wird ¨ die Spracheingabe eine vertretbare Option, um W¨ unsche von den Lippen der Nutzer abzulesen. Dennoch ist die Spracheingabe nur brauchbar f¨ ur ganz bestimmte Steuerungs– und Eingabeaspekte. Beispielsweise eignet sich die Spracheingabe nicht wirklich f¨ ur grafische Eingaben, wie die Cursorsteuerung. Genauso wenig funktioniert die Spracheingabe in u ullten R¨aumen, da Hintergrundger¨ausche das sichere Erkennen von Sprache be¨berf¨ hindern. Auch die unterschiedliche Aussprache und Akzente stellen eine Herausforderung an die Entwicklung dar. Joysticks und andere haptische Ger¨ate erh¨ohten die Vielseitigkeit von Eingabenmedien ohne einer Komplettl¨osung f¨ ur Jedermann oder jeder Anwendung gerecht zu werden. Die Verwendung der Blickposition und Blickbewegungen auf dem Computermonitor erg¨anzen eine weitere Dimension von Eingabemodi. Es ist aber gerade das Zusammenspiel mehrerer Eingabeger¨ate in einem multi–modalen Verbund, welches das User Interface wirklich intuitiv macht. Dies wird unterst¨ utzt durch die Ab¨anderung des

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

7

GUI oder Operationssystems.[Tei01] Eingabeger¨ate dienen zur Kommunikation mit dem Computer, der die Eingaben des Benutzers entgegennimmt, diese auswertet und entsprechend darauf reagiert. Alle benutzten Eingabeger¨ate zusammen sollten dem Benutzer eine m¨oglichst realit¨atsgetreue und intuitive Steuerung erm¨oglichen. Dabei sollten die Steuerungsmodule praktisch ”unsichtbar” sein, das heißt sie sollten den nat¨ urlichen Bewegungsablauf so wenig wie m¨oglich behindern und nicht zu sp¨ uren sein. Leider erlaubt dies der heutige Stand der Technik noch nicht. Eine ”Nat¨ urlichkeit” ist nur in einem sehr begrenzten Rahmen m¨oglich. Gedankeneingabe durch einen Computerchip unter der Haut ist wohl eine Vision. Ohne Visionen w¨are Amerika wohl nie entdeckt worden und der Mensch nie auf den Mond geflogen. Viele Projekte werden sehr geheim gehalten bzw. die Details der Funktionsweise wird aus ¨ gesch¨aftlichen Gr¨ unden nicht immer an die Offentlichkeit weitergegeben. Da sich jedoch sehr viele Menschen dar¨ uber den Kopf zerbrechen wie Mensch–Maschiene–Kommunikation funktionieren k¨onnte, sind wohl die grunds¨atzlichen M¨oglichkeiten bekannt. Welche Art von Information kann der Mensch erzeugen bzw. verarbeiten? ˆ Bilder ˆ Schrift ˆ Zeichen ˆ Ger¨ uche ˆ Ton (Sprache, Musik, Ger¨ ausche) ˆ Tastsinn ˆ Gedanken ˆ ...

Der Computer kann nur digitale Zust¨ande verarbeiten, das heißt es ist ihm egal wie die Information aufgenommen wird, er braucht nur das passende Interface daf¨ ur, das ihm die Daten richtig aufbereitet. Solche Interfaces, in diesem Fall Eingabeger¨ate, k¨onnen verschiedenste Informationen aufnehmen und in digitale Signale umwandeln. Eine Tastatur zum Beispiel wandelt das Dr¨ ucken auf eine Taste in einen Zahlenwert um, der in digitaler Form an den Computer gesendet wird. Dieser wiederum interpretiert dieses digitale Signal, mit Hilfe einer Treibersoftware, zum Beispiel als Buchstaben ”X”. Die Kunst liegt also darin, die in beliebiger Form vorliegende Information in digitale Information umzuwandeln. In weiterer Folge, werden einige ”Informationswandler”, wenn man sie so bezeichnen m¨ochte, vorgestellt.

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

2.1.1

8

Tastatur

Ein sehr einfaches und sehr oft eingesetztes Eingabeger¨at ist die Tastatur. Urspr¨ unglich verwendet um geistige Information mit Hilfe einer mechanischen Tastatur (Schreibmaschine) auf Papier zu verewigen. Nach vielen Jahren in denen diese Technologie verwendet wurde, kam es erst duch den Elektronikboom zu wirklichen Neuerungen in der Entwicklung von Texteingabeger¨aten. Um zumindest eine Hand f¨ ur weitere T¨atigkeiten frei zu haben wurde die sogenannte ”Einhandtastatur” entwickelt. Es gibt viele Varianten, wobei der Twiddler wohl die bekannteste Version darstellt. Der Twiddler ist eine Kombination aus Tastatur und Maus, der mit einer Hand bedient werden kann. Er erlaubt die Bedienung bei jeder Handposition und eine ausreichend hohe Eingabegeschwindigkeit (bis zu 60 W¨orter pro Minute). Die Tastenbelegung ist g¨anzlich konfigurierbar und somit auf individuelle Vorlieben einstellbar. Beim Twiddler k¨onnen Tastenkombinationen zur Eingabe von ganzen Strings definiert werden. Es stehen u ugung. Das Standardmapping ¨ber 4000 dieser Kombinationen zur Verf¨ des Twiddlers beinhaltet gebr¨auchliche englische Buchstabenkombinationen wie ”ing”, ”ed”, ”the”, ”ion”, etc. . Dies kann mit gebr¨auchlichen W¨ortern, einer Email–Adresse, oder der URL der eigenen Homepage belegt werden. Zus¨atzlich zur Tastenbelegung kann auch die von manchen Programmen verwendete Worterkennung nach Eingabe weniger Buchstaben verwendet werden. Diese und weitere Hilfsmittel erm¨oglichen eine schnelle Eingabe (siehe Abbildung 2.2).

Abbildung 2.2: Twiddler Einhandtastatur

Beim ”flexiblen Keyboard” werden d¨ unne Sensoren und die zugeh¨orige Elektronik in einen wasserfesten, verformbaren Stoff eingearbeitet (siehe Abbildung 2.3). Somit kann man die Tastatur zusammenlegen oder zum Beispiel auf ein Kleidungsst¨ uck aufn¨ahen. Es kann mit dieser Methode die Tastatur auch direkt in Kleidung eingearbeitet werden (siehe Abbildung 2.4). Es kann zum Beispiel auch Kunststoff verwendet werden um die Tastatur gegen Wasser und Schmutz zu sch¨ utzen (siehe Abbildung 2.5).

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

9

Abbildung 2.3: Flexible Tastatur aus Stoff als PDA Keyboard verwendet

Abbildung 2.4: Tastatur auf einer Krawate

N¨aheres zu elektronischen Stoffen wird in Abschnitt 2.1.8 gezeigt. Die folgende Variante einer ergonomischen Tastatur ist jedoch relativ klobig und in dieser Form eher nicht zur Verwendung bei Wearable Systemen geeignet (siehe Abbildung 2.6). Die ”Professional II” ist eine Tastatur–Maus–Kombination. Die genaue Funktionsweise des Produktes kann man auf der Webseite der Firma ”Datahand”1 finden. Es ist auch ein etwas teures Spielzeug und wird deshalb auch kaum ein Massenprodukt werden. Eine andere Art Text einzugeben ist die in Folge beschriebene ”Scheibentastatur” (siehe Abbildung 2.7). Die Zeichen und Symbole sind in Kreisform angegeben. Nun kann zum Beispiel mit einem Stift, Text auf einem Touchscreen eingegeben werden, ohne dass dazu eine herk¨ommliche Tastatur ben¨otigt wird. Durch diese Anordnung der Zeichen ist es m¨oglich, von einem Zeichen zum Anderen zu gelangen, ohne den Eingabestift anzuheben oder ungewollt falsche Zeichen einzugeben. Dadurch ist eine schnellere Eingabe m¨oglich als dies mit der Abbildung einer herk¨ommlichen Tastatur zu schaffen ist. 1

http://www.datahand.com/flashsite/home.html

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

10

Abbildung 2.5: Wasserdichte flexible Keyboards

Abbildung 2.6: Ergonomische Tastatur ”Professional II” von Datahand

2.1.2

Zeigeger¨ ate

Die ”Maus” war die logische Entwicklung zur Navigation in einem GUI (Graphical User Interface). Graphische Benutzer–Schnittstellen erm¨oglichen eine schnelle Interaktion mit ¨ dem Computer. Uber die allt¨aglichen Formen einer Maus auch wenn sie kabellos ist oder statt der Rolle u ugt, muß man ¨ber einen Infrarotaufnehmer zur Bewegungserkennung verf¨ hier wohl keine Worte verlieren. Weil man mit der Maus doch einen gewissen Platz auf dem Schreibtisch zum Hin- und Herschieben ben¨otigt, wurde der sogenannte ”Trackball” entwickelt. Dieser hat die gleiche Funktion wie eine Maus und ist ebenso konstruiert, bis auf den beweglichen Teil (ein kleiner, drehbar gelagerter Ball) der beim Trackball nach oben weist. Der Zeiger auf dem Bildschirm wird durch Drehung des Balls mit der Hand verschoben. Vor allem bei tragbaren Computern ersetzt man damit die Maus. F¨ ur hohe Pr¨azision sorgt Beispielsweise der TrackMan Marble FX von Logitech. Der VierTasten-Trackball basiert auf der patentierten, optischen Marble-Technologie die eine hohe Pr¨azision und eine wartungsfreie Handhabung erm¨oglicht. Auf dem großen Trackball sind Punkte in einem willk¨ urlichen Muster angeordnet. Dieses Muster wird durch eine kleine Linse auf einem Sensor erfaßt und u ¨bertragen. Das Bild wird von 93 unabh¨angigen Zellen,

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

11

Abbildung 2.7: Scheibentastatur

die durch ein neuronales Netzwerk verbunden sind, u ¨ber 1000mal/Sekunde analysiert. Die Informationen u ¨ber die Bewegung werden dann an einen Mikroprozessor u ¨bertragen, der die Cursor-Bewegungen auf der x- und y-Achse berechnet. Das System arbeitet auch noch wenn Teile des Sensors verschmutzt oder besch¨adigt sind. Das neue Design erm¨oglicht die Steuerung des Balles von zwei Seiten: wahlweise mit den Fingern oder mit dem Daumen und Zeigefinger. Zusammen mit der Software ”MouseWare” wird unter anderem das Scrollen und Zoomen mit einem einzigen Mausklick m¨oglich (siehe Abbildung 2.8).

Abbildung 2.8: Trackball

Interessanter ist hingegen schon die sogenannte ”Ringmaus” wie sie in den folgenden Bildern zu sehen ist (siehe Abbildung 2.9, 2.10 und 2.11). Durch das Tragen am Finger ist auch eine dreidimensionale Auswertung m¨oglich. In Abbildung 2.9 ist ein System zur dreidimensionalen Positionsbestimmung der Maus durch drei Sensoren zu sehen. Diese Methode k¨onnte man nat¨ urlich auch bei Wearable Computern einsetzen, indem man die Sensoren am K¨orper positioniert und die Maus vor sich bewegt. Eine andere Version ist die kabelgebundene Ringmaus mit Bewegungssensoren in der Maus integriert. Noch einfacher in der Anwendung ist eine Neuentwicklung welche die Bewegung der Maus mit Beschleunigungssensoren abnimmt und die Informationen via RF–Interface an die Empfangseinheit schickt, die ihrerseits am USB–Port angeschlossen wird. Der Empfangsbereich liegt bei 1–3 Meter, mit der optionalen Antenne sogar bis zu 8 Meter. Der mittlere Button dient zum Aktivieren und Deaktivieren der Maus, die beiden anderen haben die

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

12

Abbildung 2.9: Eine Ringmaus mit Dreipunkt–Bewegungserkennung

Abbildung 2.10: Eine weitere Version der Ringmaus, jedoch mit Kabel

selbe Funktion wie der linke und rechte Button einer herk¨ommlichen Maus (siehe Abbildung 2.11). Um die Maus zu verwenden, h¨alt man sie in horizontaler Position und durch kurzes dr¨ ucken des mittleren Button wird die Maus aktiviert. Nun wird eine Drehbewegung zur Seite bzw. nach Vorne oder Hinten erkannt und der Cursor am Bildschirm bewegt sich entsprechend. Je gr¨oßer der Drehwinkel, desto schneller bewegt sich der Cursor. Um die Mausbewegung zu beenden klickt man erneut auf den mittleren Button. Auch optisch ist diese Maus durch ihre verschiedenen farblichen Ausf¨ uhrungen recht annehmlich (siehe Abbildung 2.11). Mehr Information zum Produkt Finring–Maus erh¨alt man auf der Webseite der Firma Bosswave 2 . Noch n¨aher am Begriff ”Ringmaus” ist die in einem echten Ring integrierte Maus. Diese wird sp¨ater im Abschnitt ”Elektronischer Schmuck” 2.1.9 gezeigt. Eine andere Variante ist die sogenannte ”Hands Free Mouse”. Cursersteuerung mit einfachen Kopfbewegungen ist eine Grundidee dieser Mausgattung. Durch eine Kontrolleinheit am Monitor (Signalsender und Schnittstelle zum PC) und Sensoren am Kopf (drei Sensoren erkennen unterschiedliche Signalst¨arken), kann eine Bewegung aufgenommen und interpretiert werden. Die Maustaste kann durch einen Druckluftschalter (ausgel¨ost durch ein kurzes blasen in ein R¨ohrchen zum Drucksensor) oder durch einen beliebigen Taster, welcher an der Kontrolleinheit angeschlossen wird, ersetzt werden. Dies ist eine M¨oglich2

http://www.bosswave.com/mouse/finring/index.shtml

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

13

Abbildung 2.11: Funktionsweise und Handhabung des Finring

keit wie man ohne H¨ande den Curser am Computerbildschirm steuern kann (siehe Abbildung 2.12). Zum Beispiel k¨onnen K¨orperbehinderte mit einer am Bildschirm dargestellten Tastatur einen Computer vollst¨andig bedienen. Es gibt auch Produkte die man wie einen Kopfh¨orer oder ein Stirnband am Kopf tragen kann. Somit ist die Verwendung mit einem Wearable Computer ebenfalls m¨oglich (siehe Abbildung 2.12). NaturalPoint TrackIR, Mousamatic und HeadMaster Plus sind Beispiele f¨ ur kommerziell erh¨altliche Produkte 3 .

Abbildung 2.12: Kopfmaus ”HDMaster” und Stirnbandmaus ”Mousamatic”

Es ist nicht n¨otig u ¨berall am Bildschirm die gleich hohe Aufl¨osung zu benutzen, da das Auge nur im Fokus scharf sieht. Man k¨onnte also vom Brennpunkt startend nach außen 3

http://www.worklink.net/mice.htm

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

14

hin immer geringere Aufl¨osung benutzen, ohne daß dies der Benutzer merken w¨ urde. Das bedeutet wiederum Performancegewinn. Um diesem Problem entgegenzukommen wurde das ”Eye tracking” entwickelt, das in vier Grundtechniken eingeteilt wird: ˆ limbus tracking: Die Grenzlinie zwischen Iris und Limbus ist sehr scharf und kann deshalb leicht identifiziert werden. Auf der Brille des Benutzers sind Infrarot-LEDs und Photo-Transistoren angebracht, um durch Reflexion an der Iris und des Limbus auf die Blickrichtung zu schließen. Dieses System ist ziemlich genau (Fehlerquote zwischen 1o und 3o ). ˆ image tracking: Hier werden Kameras die das Auge filmen verwendet. Die Bilder werden miteinander mit verschiedenen Techniken verglichen und bearbeitet um auf die Blickrichtung zu schließen. (Fehlerrate ca. 1o ) ˆ electro–oculography (EOG): Seitlich an den Augen sind Elektroden positioniert, um das Potential zwischen Cornea und Retina zu messen (15 Mikrovolt – 200 Mikrovolt). Dieses System ist sehr unzuverl¨assig, weil es Muskelzuckungen und externe elektrische Interferenzen nicht ber¨ ucksichtigen kann. ˆ corneal reflection: Photo–Transistoren analysieren die Reflexion von abgestrahltem Licht an der konvexen Cornea. Dieses System verspricht eine ziemlich hohe Genauigkeit (Abweichung 0,5o – 1o ) ist jedoch sehr aufwendig zu kalibrieren. Ein weiteres Problem ist die Augenfl¨ ussigkeit, die die Reflexion beeinflußt.

Das Eye Tracking kann nat¨ urlich auch zur Navigation am Desktop benutzt werden. F¨ ur die direkte Eingabe mit den Fingern oder ¨ahnlichem auf dem Bildschirm selbst gibt es sogenannte Touchscreens. Diese Monitore k¨onnen die Stellen wo sie ber¨ uhrt werden lokalisieren und ein entsprechendes Signal an den Rechner weiterleiten. Mit speziell daf¨ ur ausgelegten Programmen kann eine sehr einfache Benutzerf¨ uhrung aufgebaut werden. Unangenehm ist die permanente Verschmutzung solcher Bildschirme, auch bei Bauarten wo ein Kontakt des Fingers mit der Oberfl¨ache gar nicht n¨otig ist. Die Abgrenzung der Eingabefelder muß auf die Gr¨oße der Finger abgestimmt sein (also nicht zu klein), um Fehleingaben zu vermeiden. Touchscreens sind h¨aufig staub– und wasserdicht ausgef¨ uhrt und eignen sich daher f¨ ur eine rauhe Umgebung wie zum Beispiel in der Gastronomie oder in der industriellen Fertigung. Die Bedienung ist so einfach, daß auch v¨ollig unerfahrene Benutzer Informationen damit abrufen k¨onnen (siehe Abbildung 2.13). Viele Details zu diesem Thema sind unter der Webadresse der Firma 3M zu finden4 . Der ”Lichtgriffel” oder besser bekannt unter dem englischen Begriff ”Light-Pen”, ist vor allem f¨ ur Anwender die nur gelegentlich am Computer arbeiten gut geeignet. Es ist leichter Eingaben zu machen indem man direkt auf bestimmte Stellen des Bildschirms zeigt, als sie mit der Maus anzuw¨ahlen. Diese Lichtgriffel sind nicht gr¨oßer als ein Kugelschreiber. In ihrer Spitze befinden sich optische Sensoren, deren Meßwerte zum Computer geschickt werden. Der kann aus einem Vergleich der vom Lichtgriffel eintreffenden Signale und den Signalen die er zum Bildschirm sendet berechnen, auf welche Stelle des Bildschirms der Lichtgriffel deutet. Mit einer kleinen Taste am Lichtgriffel kann dem Computer signalisiert werden, daß er den Befehl ausf¨ uhren soll, auf dessen Symbol der Lichtgriffel gerade deutet. 4

http://www.3m.com/3MTouchSystems/

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

15

Abbildung 2.13: Beispiele von Touchscreen-Anwendungen

2.1.3

Handschrifterkennung

Eine moderne Variante der Dateneingabe sind Systeme bei denen mit einem besonderen Stift auf eine Unterlage geschrieben wird, die den Weg des Stifts auf der Oberfl¨ache darstellen und digital umsetzen kann. Es gibt auch Stifte die bereits Sensoren integriert haben und die Bewegung direkt aufnehmen und verarbeiten k¨onnen, sowie via Bluetooth oder ¨ahnlichem die Daten gleich an den Computer, PDA, Wearable Computer oder ans ¨ Faxger¨at schicken (siehe Abbildung 2.14 links). Ahnlich wie bei der Spracheingabe ist eine Art Lernprozess hilfreich, um die Erkennung einer Handschrift zu verbessern. Vor allem f¨ ur kleine, tragbare Rechner ist diese Art der Eingabe g¨ unstig, weil man dabei auf eine Tastatur v¨ollig verzichten kann. Die Schreibfl¨ache ist dann gleichzeitig der Bildschirm.

Abbildung 2.14: Handschrifterkennung mit Stift und mit Sensorleiste

Eine weitere Variante ist die Sensorleiste, welche die Bewegung eines Stiftes in einem bestimmten Arbeitsbereich erkennt und die Information zur Verarbeitung an den PDA schickt, oder direkt eine Nachricht u ¨ber das Mobiltelefon versendet (Siehe Abbildung 2.14 rechts). ¨ Ahnlich funktionieren auch die sogenannten Digitalisiertabletts, auf denen mit einem Stift oder einer speziellen Maus verschiedenste Eingaben gemachen werden k¨onnen (Siehe Abbildung 2.15). Sie k¨onnen zur Auswahl von bestimmten Befehlen genutzt werden, die auf eine Schablone (Men¨ ufeld) aufgemalt sind. Das Digitalisiertablett lokalisiert dabei, an welcher Stelle auf dem Tablett eine Ber¨ uhrung mit einem besonderen Stift stattgefunden hat. Eine andere Rolle spielen Digitalisiertabletts bei der direkten Eingabe von Daten, vorzugsweise von geographischen Karten. Man zielt dabei einzelne Punkte mit einer Art Fadenkreuz an und dr¨ uckt dann eine Taste. Die X– und Y–Koordinaten dieses Punkts werden dann automatisch auf mehrere Stellen genau gespeichert. Vorher muß allerdings

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

16

Abbildung 2.15: Arbeiten mit einem Tablett

eine entsprechende Justierung stattfinden. Am h¨aufigsten verwendet wird eine derartige Eingabe bei Konstruktionsb¨ uros, Grafikfirmen, oder Architekten.

2.1.4

Spracherkennung

Bis vor kurzem war Spracherkennung (engl. speech recognition) nur Realit¨at in Science– Fiction Filmen. F¨ ur Mister Spok vom Raumschiff Enterprise ist es selbstverst¨andlich, seine Anweisungen dem Bordcomputer im wahrsten Sinne des Wortes zu diktieren. Der legend¨are Computer HAL aus ”2001 – Odyssee im Weltall” entwickelte seine F¨ahigkeiten sogar so weit, dass er von den Lippen lesen konnte. Zugegeben – ganz so weit ist es noch nicht. Dennoch haben Spracherkennungssysteme in der letzten Zeit gewaltige Fortschritte gemacht und sind mittlerweile neben Maus und Tastatur zum gleichberechtigten Eingabeinstrument geworden. Das gilt sowohl f¨ ur das Erfassen von Texten und Daten wie auch f¨ ur das Steuern des PC. Die neue Generation der Spracherkennungsprogramme erm¨oglicht auch Otto–Normalverbraucher eine v¨ollig neue Arbeitswelt. Der Ausspruch ”Computer – bitte zum Diktat” ist heute bereits Realit¨at geworden. Ein kurzer geschichtlicher R¨ uckblick zeigt die rasche Entwicklung dieser interessanten Mensch–Maschine–Schnittstelle. Seit den sechziger Jahren wird in den Labors unterschiedlichster Firmen intensiv an Spracherkennungssystemen geforscht und entwickelt. Bis zu Beginn der achtziger Jahre reichten das Wissen und die technischen M¨oglichkeiten gerade aus, um Systeme zu konstruieren die maximal einige hundert Einzelw¨orter erkennen konnten. Danach ist die Entwicklung so rasant vorangekommen, dass eine Erfolgsmeldung die andere abl¨oste. 1984 wurde ein Spracherkennungssystem vorgestellt, das mit Hilfe eines Großrechners in einem mehrere Minuten dauernden Rechenvorgang etwa 5.000 englische Einzelw¨orter erkennen konnte. Im Jahre 1986 haben Wissenschaftler des IBM Forschungslabors in Yorktown Heights, USA, den Prototyp ”Tangora 4 f¨ ur Englisch, entwickelt. Bei diesem System war es durch spezielle Mikroprozessoren m¨oglich, die komplizierten Verarbeitungsschritte der gesprochenen Sprache auf einem Arbeitsplatzrechner in Echtzeit durchzuf¨ uhren. Das bemerkens-

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

17

werte an diesem System war, dass es bereits eine Kontextpr¨ ufung beinhaltete. Seit 1988 wurde im Wissenschaftlichen Zentrum Heidelberg der Prototyp f¨ ur die deutsche Version von ”Tangora” entwickelt. Einsatz fand dieses System in der Medizin zum Diktieren von radiologischen Befunden, im Gerichtswesen f¨ ur juristische Gutachten und im B¨ uro f¨ ur die allgemeine Gesch¨aftskorrespondenz. Im Dezember 1992 wurde die ”Tangora–Technik” erstmals in einem Produkt unter dem Namen ”ISSS” (IBM Speech Server Series) verf¨ ugbar gemacht. Ende 1993 wurde ein neues Produkt, das auf der ”Tangora–Technologie” basiert, angek¨ undigt. Der Preis war geradezu eine Sensation. W¨ahrend alle bisherigen L¨osungen u ¨ber 10.000¿ gekostet hatten, wurde das IBM Personal Dictation System, das kurze Zeit sp¨ater in IBM VoiceType Diktiersystem umbenannt wurde, f¨ ur unter 1.000¿ auf den Markt gebracht. Dieses System war eine reine PC-L¨osung und damit auch f¨ ur den breiten Massenmarkt bestimmt. Eine andere L¨osung und das erste Spracherkennungssystem f¨ ur den tragbaren PC wurde 1984 von der Firma Dragon Systems in Newton, Massachusetts, entwickelt. Die erste kontinuierliche Philips Spracherkennung wurde 1993 vorgestellt und 1994 implementiert. Es folgte 1997 das Produkt Speech Magic, welches Client/Server f¨ahig ist, und 1998 ein Konsumentenprodukt namens FreeSpeech98. Lernout & Hauspie ist der vierte Spracherkennungshersteller. Die ersten Produkte in deutscher Sprache sind seit Ende November 1998 verf¨ ugbar. Große Technologieunternehmen wie IBM oder Philips haben das riesige Marktpotential erkannt und investieren seit Jahren betr¨achtliche Summen in die Perfektionierung der Spracherkennung. Gleichzeitig kommen neue Anbieter wie Dragon Systems und Lernout & Hauspie auf den Markt und beschleunigen das Innovationstempo weiter. Der eigentliche Gewinner dieses Wettlaufs ist der Verbraucher, der f¨ ur immer weniger Geld eine immer bessere Software erh¨alt. Umfragen zeigen das u ¨berw¨altigende Interesse an diesem Thema. Ein Großteil der PC–Anwender kann sich vorstellen, in der n¨achsten Zeit ein Spracherkennungssystem anzuschaffen. Interessanterweise setzen aber nur sehr wenige eine Spracherkennung im produktiven Alltag bereits ein. Woher r¨ uhrt diese betr¨achtliche Diskrepanz zwischen einerseits breitem Interesse und andererseits nur geringer Verwendung? Es wird f¨ ur viele Interessenten immer schwieriger, sich angesichts der Vielzahl der angebotenen Systeme einen aktuellen und objektiven ¨ Uberblick zu verschaffen. Und selbst die Lekt¨ ure eines noch so umfangreichen Testberichts ist kein Ersatz f¨ ur das eigene Ausprobieren und Testen der verschiedenen Programme. Nur so kann jeder selbst entscheiden, ob sich Spracherkennung nutzbringend einsetzen l¨asst. Die jahrzehntelange Grundlagenforschung in der Spracherkennung ist in letzter Zeit wesentlich vorangekommen. F¨ ur die allgemeine Textverarbeitung, die Telekommunikation und den Zugriff auf Datenbanken sowie beim Dialog mit Expertensystemen wird zur Zeit an besonders leistungsf¨ahigen Spracherkennungssystemen geforscht. Gesprochene Sprache ist eines der wichtigsten menschlichen Kommunikationsmittel. Da die Sprache f¨ ur uns selbstverst¨andlich ist, machen wir uns u ¨ber sie normalerweise keine Gedanken. F¨ ur uns Menschen ist es einfach, W¨orter und S¨atze zu verstehen. K¨onnte die

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

18

nat¨ urlich gesprochene Sprache von Computern verstanden werden, w¨ urde dies nicht nur den Mensch-Maschine-Dialog erleichtern, sondern auch neue Einsatzgebiete des Computers erschließen. Am Entwicklungsprozess einer Spracherkennungsl¨osung sind unter anderem beteiligt: ˆ Programmierung und Computertechnik ˆ Phonetik ˆ Linguistik ˆ Mustererkennung ˆ k¨ unstliche Intelligenz

Mit einem automatischen Spracherkenner wird versucht, das menschliche Sprachverstehen nachzuahmen. Neben Tastatur und Maus dient nun das Mikrofon als weitere direkte Eingabem¨oglichkeit dazu, Daten in den Computer einzugeben. Spracherkennungssysteme lassen sich in zwei grunds¨atzlich verschiedene Gruppen unterteilen. Die eine dient zur Steuerung von Maschinen durch ”Sprachbefehle”, die andere wird zum Erfassen von ”gesprochenem Text” eingesetzt. Die Spracherkennung zur ”Steuerung und Befehlseingabe” bildet die Eine Gruppe von Systemen. Steuerungssysteme verf¨ ugen in der Regel u ¨ber einen stark beschr¨ankten Wortschatz, da meist nur wenige Befehle zur Steuerung ben¨otigt werden und kein direkter Kontakt zum spracherkennenden Computer bestehen muss. Somit sind auch indirekte Eingaben wie zum Beispiel u ¨ber ein Telefon m¨oglich. Sie finden vor allem Anwendung beim sogenannten ”Telefon-Banking”. Es sind aber auch Datenbankrecherchen via Telefon m¨oglich. Sprachsteuerungen mit Kontakt zum Computer finden vor allem Anwendung als Steuerungssysteme, die mittels sprachlich gegebener Befehle Ger¨ate und Maschinen bedienen beziehungsweise steuern. Die andere Gruppe bilden Spracherkennungssysteme zur ”Texterfassung”. Bei der Spracherkennung werden gesprochene W¨orter in geschriebenen Text umgewandelt. Diese Systeme m¨ ussen in der Regel u ugen, damit zufrie¨ber einen sehr großen Wortschatz verf¨ denstellende Erkennungsergebnisse erreicht werden k¨onnen. Manche Systeme k¨onnen den Text in Echtzeit erfassen, bei anderen muss der Vorgang der Umwandlung von Sprache in Text in einem sogenannten ”Stapel-Betrieb” (Batch-Job) erfolgen. Systeme die in Echtzeit arbeiten, k¨onnen den Text unmittelbar nachdem er gesprochen wurde, auf dem Bildschirm des Spracherkennungscomputers anzeigen. Ein weiteres Unterscheidungskriterium befasst sich mit der Frage, ob zur Spracherkennung eine diskrete Sprechweise erforderlich ist, also jedes Wort f¨ ur sich gesprochen werden muss, oder ob der Text kontinuierlich diktiert werden kann, wie es beim normalen Sprechen u ¨blich ist. Beim kontinuierlichen Sprechen sind fast alle W¨orter l¨ uckenlos aneinandergereiht. Dem Menschen f¨allt es beim Zuh¨oren leicht, die einzelnen W¨orter zu unterscheiden. F¨ ur eine Maschine ist es um ein Vielfaches schwieriger einen zusammenh¨angenden Redefluss

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

19

zu strukturieren und in einzelne W¨orter zu zerlegen. Das System muss in Echtzeit entscheiden, an welcher Stelle W¨orter zu Ende sind. Der schon bei Systemen f¨ ur diskret gesprochene Sprache sehr hohe Rechenaufwand wird bei Systemen die kontinuierlich gesprochene Sprache erkennen sollen, um ein Vielfaches u ¨bertroffen. Durch die kontinuierlich steigende Leistungsf¨ahigkeit der PCs ist es den Labors jedoch gelungen ein System zu entwickeln, welches das Diktieren ohne Pausen zwischen den einzelnen W¨ortern zul¨asst. Diese Systeme sind mittlerweile mit einem riesigen Gesammtwortschatz und ebenfalls sprecherunabh¨angig verf¨ ugbar. Ein sprecherunabh¨angiges System kann von jeder beliebigen Person ohne Training genutzt werden. Bei Texterfassungssystemen muss differenziert werden, ob sich die Sprecherunabh¨angigkeit auf den Wortschatz oder auf das gesamte Spracherkennungssystem bezieht. Bei einem Spracherkennungssystem ohne mitgelieferten sprecherunabh¨angigen Wortschatz, muss jeder Benutzer der mit dem System arbeiten m¨ochte seinen pers¨onlichen Wortschatz erst aufbauen. Aus jedem Wort das der Benutzer diktiert, muss der Rechner ein Referenzmuster erzeugen. Erst wenn der selbst aufgebaute Wortschatz repr¨asentativ genug ist, k¨onnen ausreichend gute Erkennungsergebnisse erreicht werden. Dadurch dauert die Einarbeitungszeit f¨ ur jeden Benutzer sehr lange und die Produktivit¨at wird zun¨achst stark absinken. Solche Systeme sind heute nicht mehr u ¨blich. Ein mitgelieferter sprecherunabh¨angiger Wortschatz ist somit sehr sinnvoll, da dieser nur noch an die Sprechweise des Benutzers angepasst und nicht erst eingegeben werden muss. Die am h¨aufigsten verwendeten W¨orter sind in solch einem Wortschatz bereits enthalten und mit Referenzmustern hinterlegt. Sie werden nur noch an den Sprecher adaptiert. Zum Beispiel lernt das System ob der Sprecher ”wichtig”, ”wichtich”, oder gar ”wischtisch” sagt. ¨ Man stelle sich einmal vor, ein Osterreicher, ein Deutscher und ein Schweizer sollten vom System sofort und ohne Initialtraining erkannt werden. Dies ist selbst f¨ ur einen Menschen schwierig, da die regionalen sprachlichen Eigenheiten der Sprecher sehr verschieden sein k¨onnen. Ein System das nicht auf die zus¨atzlichen Kommunikationsmittel des Menschen (z. B. Gestik, Mimik), zur¨ uckgreifen kann, w¨are hoffnungslos verloren. Ein Anpassungstraining ist aufgrund der heutigen sprecherunabh¨angigen Systeme zwar nicht mehr notwendig, aber aufgrund unserer individuellen Aussprache sehr empfehlenswert. Man erzielt dadurch von Anfang an eine weitaus h¨ohere Erkennungsgenauigkeit. Bereits heute k¨onnen auf dem PC basierende Diktiersysteme in vielen Bereichen effektiv eingesetzt werden, wobei die Arbeit noch folgenden Beschr¨ankungen unterliegt: ˆ Ein Kopfb¨ ugelmikrofon (Headset), durch das man an den Computer gebunden ist, ist immer noch notwendig. ˆ Ein Training der Systeme ist wegen der unterschiedlichen Dialekte und Akzente fast unumg¨anglich. ˆ Es ist unm¨ oglich eine 100%–ige Erkennungsgenauigkeit zu erreichen.

Es gibt viele Spekulationen wie Spracherkennungssysteme in der Zukunft implementiert und realisiert werden k¨onnen. Das große Ziel wird nat¨ urlich sein, die oben genannten Beschr¨ankungen zu beseitigen. Die Dialekte und Akzente scheinen die Programme immer besser in den Griff zu bekommen: Bei einigen neuen Spracherkennungsprogrammen wird

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

20

der Benutzer in sogenannte Cluster eingeteilt. Durch ein ”Mini-Training” mit einigen wenigen S¨atzen zum Nachsprechen wird der Benutzer in das Cluster m¨annlich, weiblich, Jugendlicher, Kind usw. eingeteilt. Zur Verbesserung der Erkennungsgenauigkeit tr¨agt sicherlich auch ein gr¨oßeres Vokabular bei. Bringt ein Spracherkennungshersteller ein neues Produkt auf den Markt, enth¨alt dieses gegen¨ uber der Vorg¨angerversion meist auch ein gr¨oßeres Vokabular. Außerdem wird daran gearbeitet, die PC-Steuerung so effektiv zu gestalten, dass Tastatur und Maus durch die Sprache v¨ollig ersetzt werden k¨onnen. Die Spracherkennung wird in Zukunft eine noch wichtigere Rolle spielen. Kann ein Computer Sprache wirklich verstehen, so sind Dialoge zwischen Mensch und Computer m¨oglich. Denkbare Anwendungen w¨aren zum Beispiel der elektronische ”Kiosk” oder die auto¨ matische Ubersetzung in beliebige Sprachen, wie es das mit dem Europ¨aischen IT–Preis ausgezeichnete ”Talk&Translate” von Linguatec gezeigt hat. Die Einf¨ uhrung der Spracherkennung ist in gewisser Weise mit der Integration der Maus vergleichbar. Als die ersten Computer mit einer Maus ausger¨ ustet wurden, gab es kaum Software die durch eine Maus bedient oder gesteuert werden konnte. Auch die Integration in das Betriebssystem verursachte zun¨achst Probleme. Heute ist praktisch jede Anwendung mit der Maus zu bedienen. In den modernen Betriebssystemen mit grafischer Oberfl¨ache wird die Maus standardm¨aßig voll unterst¨ utzt. In einer ¨ahnlichen Situation befindet sich derzeit die Spracherkennung auf dem PC. Zun¨achst noch skeptisch betrachtet und kaum in einer Anwendung integriert, wird in Zukunft die Bedeutung der Spracherkennung stark zunehmen und bald nicht mehr aus dem t¨aglichen Arbeiten mit dem Computer wegzudenken sein. Doch nicht nur auf allen PCs wird diese L¨osung realisiert. Spracherkennung ist auch f¨ ur viele andere Ger¨ate denkbar. Man stelle sich einmal vor, man k¨onnte einem elektronischen Notizbuch einen Texte einfach diktieren ohne einen PC zu benutzen. Oder Sie br¨auchten die Bedienungsanleitung des Videorecorders nicht mehr auswendig zu lernen, weil Sie ihm sagen k¨onnen wann er einen Film aufnehmen soll. Auch das ”connected car”, eine Autostudie bei der fast alles mit der Sprache zu bedienen und zu steuern ist, wird bald keine Zukunftsmusik mehr sein. Beim Autofahren sind H¨ande, Augen und Beine besch¨aftigt. Die Sprache ist das einzige freie Medium dem keine Grenzen gesetzt sind. K¨orperlich schwerbehinderten Menschen, die keine Tastatur bedienen k¨onnen, erm¨oglicht sie schon heute eine Erweiterung ihrer Arbeits– und Kommunikationsm¨oglichkeiten. Besonders die Hersteller von Betriebssystemen arbeiten intensiv an der Verbesserung von Spracheingabesystemen [LH02]. F¨ ur eine genauere Studie der Funktionsweise und Problematiken bei der Spracheingabe siehe Linkliste im Anhang unter Punkt 6.1.3 .

2.1.5

Datenhandschuhe

Zu den wirklich tragbaren Eingabeger¨aten z¨ahlt der sogenannte Datenhandschuh. Es gibt verschiedenste Ideen, die Hand– bzw. Fingerbewegungen als Steuerung oder Dateneingabe zu verwenden. Einige Datenhandschuhe sind mit fiberoptischen Sensoren ausgestattet die es erm¨oglichen, alle Bewegungen der Finger aufzufangen. Zus¨atzlich kann ein Tracker an der Brust des Benutzers befestigt werden, um die Position und Orientierung der Hand

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

21

berechnen zu k¨onnen. Ein Vertreter dieser Art von Dateneingabe ist der sogenannte ”Nailglove”. Sensoren am Fingernagel erkennen quasi einen Tastendruck ohne das wirklich eine Tastatur ben¨otigt wird (Siehe Abbildung 2.16).

Abbildung 2.16: Datenhandschuh mit Fingernagelsensor

Der Scurry ist ein tragbares Eingabeger¨at von Samsung, das es dem Benutzer erm¨oglicht in der Luft zu schreiben. Biologische Feedback–Schemas (Visuelles, Kraft– und Sound– Feedback) sind in den Scurry integriert. Es besitzt sogenannte ”MEMS” Bewegungssensoren, mit denen beim Tragen des Scurry die Winkelgeschwindigkeit der Hand und die Beschleunigung der Fingerbewegung gemessen werden. Die dadurch erhaltenen Sensorsignale werden dann, wie bei anderen Eingabeger¨aten, als Handbewegung bzw. Finger–Klick Information verarbeitet. Die Technologie des Scurry ist anwendbar bei Wearable Computer, Handheld Ger¨at, virtuellen Anwendungen, Tele–Operationen, Computerspiele, Remote–Controller, als Zeigeger¨at, INS (Inertial Navigation System) und als Eingabeger¨at (Motion–Translator) f¨ ur beeintr¨achtigte Personen. Die folgende Abbildung 2.17 zeigt zwei varianten des Scurry. Ein funktionst¨ uchtiges Ger¨at (links) sowie ein Studie wie dieses Ger¨at noch aussehen k¨onnte (rechts).

Abbildung 2.17: Nicht nur eine tragbare Tastatur ist der sogenannte Scurry

Links zu weiteren Informationen findet man unter ”Tastatur” in der Linkliste im Anhang unter Punkt 6.1.3 .

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

2.1.6

22

Dexterous manipulators

F¨ ur einige Anwendungen wird h¨ochste Pr¨azision gefordert. Da der Datenhandschuh oft nicht effizient genug ist, wurde zum Beispiel der Hand Master entwickelt. Mit Hilfe von Potentiometern werden Winkelbewegungen der Finger aufgefangen. Pro Finger sind 4DOF5 m¨oglich, f¨ ur die ganze Hand also 20DOF. Weiters sind diese Ger¨ate mit einem Force Feedback ausgestattet. Sie sind weit genauer als Datenhandschuhe. Die Fehlerquote liegt bei ca. 1o ; beim Datenhandschuh 5o -10o . Schließlich sind jedoch die derzeitigen Systeme relativ unbequem und man kann die H¨ande auch nur sehr eingeschr¨ankt f¨ ur andere Arbeiten einsetzen.

2.1.7

Datenanzug

Zu einer Weiterentwicklung des Datenhandschuhes z¨ahlt der Datenanzug. Wie der Name schon sagt, ist der Benutzer mit einem mit Sensoren best¨ uckten Anzug bekleidet. Mit einer minimalen Anzahl von Sensoren ist das Festhalten aller Bewegungen des ganzen K¨orpers m¨oglich. Auch hier ist der Tragekomfort nicht wirklich f¨ ur den Alltag zu gebrauchen, außerdem dauert das Anlegen eines solchen Datenanzuges l¨anger als das Anziehen einer handels¨ ublichen Jacke und Hose. Anwendungen gibt es relativ viele, zum Spielen, aber auch zum Produzieren von Computerspielen, Filmen oder Trainingsger¨aten. Zum Beispiel k¨onnte man mit einem Datenanzug die Schlagbewegung eines Golfspielers aufnehmen und sie mit der Bewegung einem Profispielers vergleichen. Damit kann man Fehler leicht erkennen und korrigieren. Eine moderne Art eines Datenanzuges wird im n¨achsten Abschnitt gezeigt. Mit Hilfe von neuen Technologien und speziellen Stoffen, werden nicht nur einzelne Sensoren sonder auch Ein/Ausgabeger¨ate und bald auch ganze Computer in Kleidungsst¨ ucke integriert. Trotz der ganzen Technik die in so einem Kleidungsst¨ uck steckt, soll der gewohnte Tragekomfort erhalten bleiben.

2.1.8

Elektronische Stoffe und Sensoren

Eine Tastatur eingen¨aht in die Hose, ein Handy in der Krawatte, eine Fernbedienung in der Couchlehne. Dies alles soll demn¨achst dank des Elektro–Stoffes des britischen High– Tech Unternehmens Electrotextiles6 Realit¨at werden. Der leitende Elektro–Stoff sei laut Hersteller strapazf¨ahig, waschbar, leicht und kosteng¨ unstig. Dass bestimmte Elektro–Stoff–Ger¨ate nur benutzbar sein werden, wenn man das passende Kleidungsst¨ uck tr¨agt, ist laut Aussage des Unternehmens nicht von Bedeutung. ”Langfristig werden sowieso alle Kleidungsst¨ ucke mit pers¨onlichen Elektroger¨aten ausgestattet sein.” Spielzeuge mit weichen Elektroteilen zum Beispiel w¨aren f¨ ur Kinder weniger gef¨ahrlich. In einem mit Elektro–Stoff ausgestattetem Flugzeug k¨onnte die Besatzungsmannschaft auf 5

Dreidimensionale Objekte haben 6 Freiheitsgrade (DOF–degrees of freedom): Die drei Positionskoordinaten (x, y und z) und Angaben zur Orientierung (z.B. neigen, schwenken und drehen von Winkeln). 6 http://www.electrotextiles.com

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

23

einem Bildschirm sofort erkennen, ob alle Passagiere den Sicherheitsg¨ urtel angeschnallt h¨atten. Dar¨ uber hinaus gibt es viele M¨oglichkeiten im Bereich des Gesundheitswesens. Der Elektro–Stoff k¨onnte etwa bei Krankenbetten das Wundliegen verhindern, indem Sensoren m¨ogliche Wundstellen im Voraus identifizieren. Manches davon l¨asst sich schon kaufen, beispielsweise eine Sportjacke mit aufblasbaren Luftkammern. Wem zu kalt wird, der legt sich damit schnell eine zus¨atzliche Isolierschicht zu. Die Not¨arzte der Universit¨atsklinik Regensburg tragen bereits eine Weste, die mit Mikrofon, Computer und einer Sendeeinheit verbunden ist. Der Arzt kann die Patientendaten schon am Ort diktieren und sie direkt in die Notaufnahme senden. Die Eidgen¨ossisch–Technische Hochschule Z¨ urich hat ein Armband entwickelt, das Blutdruck und Temperatur erfasst und in kritischen F¨allen gleich an das Krankenhaus u ¨bermittelt. Ideal zum Beispiel f¨ ur Skifahrer ist eine Art Kragen mit Mobiltelefon, das sich u ¨ber einen kleinen Griff einschalten l¨asst. Gew¨ahlt wird mit Spracherkennung. Die vom Bochumer Klaus–Steilmann–Institut entwickelte ”Smart Wear Weste” mit Taschencomputer und Sendeeinheit wurde schon von Journalisten bei der Deutschen Leichtathletik– Meisterschaft in Wattenscheid getestet. ”Denkbar ist, dass die Fans w¨ahrend der Fußballweltmeisterschaft 2006 mit einer solchen Weste in den Stadien die Ergebnisse der anderen Spiele erhalten”. Einen ernsteren Hintergrund hat die vom selben Institut entwickelte Kinderkleidung mit SOS-System. Wenn ein Kind in eine Notsituation kommt, kann es mit einem Klettverschluss einen Sender aktivieren, der die Eltern auf dem Mobiltelefon benachrichtigt. Purer Luxus ist schließlich das ”Joy Dress” der r¨omischen Designerin Alexandra Fede. In einem eleganten violetten Abendkleid sind Vibrationsfl¨achen eingearbeitet, die auf Knopfdruck den R¨ ucken der Tr¨agerin massieren – und auf diese Weise lange Stehpartys ertr¨aglicher machen sollen. 7 Computer zum Anziehen, das ist ein Stichwort, bei dem man schnell an Bilder aus Science–Fiction–Filmen denkt. An Menschen mit installierten Maschinen, merkw¨ urdigen Sichtger¨aten vor den Augen und drahtlosen Steuerkn¨ uppeln in der Hand. All dies wurde nun tats¨achlich in vielen Variationen beim internationalen Symposium f¨ ur Wearable Computers in Seattle pr¨asentiert. F¨ ur die Forscherelite dieses Fachgebiets gab es beim allj¨ahrlichen Treffen auch eine Modenschau. Auf einem improvisierten Laufsteg wurde ein ganz unscheinbarer Parka pr¨asentiert, der von Ingenieuren des Unternehmens Infineon entwickelt wurde und nicht nur w¨armt, sondern mit dem integrierten MP3–Player auch digitale Unterhaltung bietet. In die Fasern der Jacke sind Dr¨ahte verwoben, die alle Einzelelemente verbinden: Player, Kopfh¨orer, dazu die Bedienungstasten und Lautst¨arkeregler auf dem linken Jacken¨armel. Viel Beifall gab es bei der Pr¨asentation f¨ ur den Musikparka auch deshalb, weil er sich von anderen eher bizarren Kleidungsst¨ ucken und Accessoires abhob. Und die Digitalkleidung ist nicht nur tragbar, sondern auch optisch ertr¨aglich. (siehe Abbildung 2.18) Abbildung 2.19 zeigt eine ¨anliche Variante als Pullover. Was bisher noch Wunschvorstellungen sind, k¨onnte schon bald Wirklichkeit werden. Kleidung, die mitdenkt und ihren Besitzern das Leben erleichtert. 7

http://www.stern.de/index.html?id=325102

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

24

Abbildung 2.18: Computer als Parka getarnt

¨ Abbildung 2.19: Pullover mit Kopfh¨orer am Kragen und Bedientasten am Armel

An ”intelligenten” Textilien wird eifrig get¨ uftelt, wie ein Forschungsprojekt des ChipHerstellers Infineon und der Deutschen Meisterschule f¨ ur Mode in M¨ unchen zeigt. Techniker und angehende Designerinnen entwickelten gemeinsam Sportbekleidung mit integriertem MP3–Player. Nanoelektronik mache dies m¨oglich, erl¨autert S¨onke Mehrgardt, Technologie–Vorstand von Infineon. Ein Chip mit atomfeinen Kohlestoff–Fasern, die nur einen zehnmillionstel Millimeter messen, wird mit einer Schutzh¨ ulle ummantelt, mit elektrisch leitf¨ahigem Gewebe verbunden und dann eingen¨aht. Im Bereich von Nanometern geht es um Gr¨oßenverh¨altnisse von Molek¨ ulen, also der Verbindung von Atomen. Ein Kohlenstoffatom hat einen Durchmesser von etwa 0,15 Nanometern. In einem Pullover versteckt sich ein Audio–Modul mit einem Multimedia Card Platz f¨ ur ¨ Musikdaten. Am linken Armel findet sich unter aufgen¨ahten Stoffstreifen das Bedienfeld, auf der Brust ist ein Mikrofon zur Sprachsteuerung angebracht. Und aus dem bunt geringelten Rollkragen baumeln Kopfh¨orer. Die Energie stammt aus einem winzigen Thermogenerator, der K¨orperw¨arme in Strom umwandelt. Diese und weitere Ideen schwirren in den K¨opfen der Forscher.

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

25

Es wird gesch¨atzt, dass solche ”smart textiles” zuerst f¨ ur Freizeit und Unterhaltung zum Einsatz kommen. Schon bald wird man solche Produkte auf den Markt erwerben k¨onnen. Die Chips bringen zwar hohe Leistung, aber auch praktische Probleme, wie Hitzeerzeugung und hohen Stromverbrauch mit sich. Das technische Material ist extrem empfindlich und bruchgef¨ahrdet. Um Technik sinnvoll mit Mode zu verkn¨ upfen, muss ein normaler Umgang mit der ”tragbaren Elektronik” m¨oglich sein. Dazu geh¨oren Waschen und Reinigen ebenso wie bequemes Sitzen oder Liegen. Und auch ”kluge” Kleidung muss es aushalten, mal in den Rucksack gestopft zu werden. Die Technik ist zwar schon sehr klein, aber noch nicht als textile Faser verf¨ ugbar. Trotz Elektronik braucht die Kleidung die gewohnten Eigenschaften wie luftdurchl¨assig und atmungsaktiv zu sein. Außerdem darf die Technik nicht vor dem Stoff den Geist aufgeben. Ein anderes Problem ist derzeit noch der Preis. Die Prototypen kosten rund f¨ unf Millionen Euro. Aber in der Chipbranche schmelzen die Preise rasch auf ein erschwingliches Niveau zusammen. F¨ ur die Marktreife sicherte sich Infineon bereits zw¨olf Patente auf elektronische Textilien. Es gibt unz¨ahlig viele Anwendungsm¨oglichkeiten f¨ ur ”wearable electronics”. Textilien, die Blutdruck oder Puls messen, Kinder–Kleidung die den Eltern zu Hause anzeigt wo die Kleinen herumtollen, T-Shirts die dar¨ uber informieren welche Laune der Tr¨ager hat, oder Kleider die auf Wunsch die Farbe wechseln. M¨oglich w¨are auch, Hemd oder Bluse mit Sicherheits– und Identit¨atskarten auszur¨ usten. Die T¨ ur zum B¨ uro ginge morgens nur auf, wenn der richtige Mitarbeiter davor steht. Der Computer schaltete sich schon ein, w¨ahrend man noch die Jacke ablegt. Dabei w¨aren allerdings noch ein paar unangenehme Begleiterscheinungen aus dem Weg zu r¨aumen. Als Besitzer m¨ochte man sich nicht jeden Morgen gegen¨ uber seinem Hemd ausweisen. Viele elektronische Kleidungsst¨ ucke w¨aren n¨otig, um nicht jeden Tag dasselbe tragen zu m¨ ussen. Eine L¨osung daf¨ ur w¨are nur ein Hemd, das sich selbst w¨ascht – und hoffentlich auch b¨ ugelt ([Pre02]). Wenn man noch eine Schritt weiter geht, k¨onnte man sich auch folgende Situationen vorstellen. ˆ Die Sonne brennt. Keine Sorge, das neue T-Shirt macht Eincremen u ussig. ¨berfl¨ ˆ Das Herz rast. Ruhig Blut, das Hemd zeigt an, welche Tablette einzunehmen ist. ˆ Die Waschmaschine l¨ auft. Kein Problem, der Wollpullover regelt die Temperatur in der Trommel selbst.

Unendlich viele Ideen wie diese schwirren in den K¨opfen von Vision¨aren, einige davon wird man bestimmt einmal in den Boutiken wiederfinden. Links zu weiteren Infomationen findet man in der Linkliste im Anhang unter punkt 6.1.3 .

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

2.1.9

26

Elektronischer Schmuck

Schmuck, der im weiteren Sinne ja auch zur Kleidung geh¨ort, ist ein ideales Versteck f¨ ur Eingabeger¨ate sowie Ausgabeger¨ate. Die Miniaturisierung elektronischer Ger¨ate ist bereits in Bereiche vorgestoßen in denen es kein Problem mehr darstellt, zum Beispiel einen Kopfh¨orer in einen Ohrring, ein Mikrophon in eine Halskette oder eine Kamera in einer Brosche unter zu bringen.

Abbildung 2.20: Schmuck als Versteck f¨ ur E/A–Ger¨ate

Mit der sogenannten Nanotechnologie werden k¨ unftig immer mehr Ger¨ate in unseren Alltagsgegenst¨anden platz finden, und das mit bei weitem weniger Energiebedarf als bisher. ¨ Das gr¨oßte Problem ist dabei die drahtlose Ubertragung der Information von und zu den ¨ Ger¨aten. Die Ubertragung bedingt immer eine Sende– bzw. Empfangselektronik mit dazugeh¨origer Sende– und Empfangseinheit (Antenne, IR–LED,. . . ), welche einen relativ hohen Energieverbrauch aufweisen. Beispiele f¨ ur ”Elektronischen Schmuck” sind in Abbildung 2.20 zu sehen, wobei man ihn rein optisch nicht wirklich von ”normalen” Schmuck unterscheiden kann.

2.1.10

Video

Kameras als Eingabeger¨ate werden immer kleiner und besser, aber wichtig ist auch, was man mit dem Bild/Ton Informationen anstellt. Daten sind nur so gut wie ihr Informationsgehalt und die n¨otige Information aus Videodaten zu bekommen ist eine große Herausforderung f¨ ur die Forschung. Nicht das Herausfiltern von Information, sondern die Aufzeichnung von bereits vergangenem Geschehen, ist der Dienst den das Produkt ”DejaView” leistet. Eine tragbare Kamera zeichnet auf Knopfdruck die jeweils vergangenen 30 Sekunden auf. Durch die DejaView CAMWEAR 100 k¨onnen Websites mit Hoppala–Videos gespeist werden, oder Videos von Verkehrsunf¨allen k¨onnen zur Beweissicherung beitragen. Man kann aber auch einfach das elektronische Familienalbum erweitern. Die Anwendungsm¨oglichkeiten sind schier unbegrenzt. Das Objektiv des Ger¨ates ist so klein und leicht, dass es an Brillengestellen oder

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

27

Kopfbedeckungen angebracht werden kann. Ein Kabel f¨ uhrt zu einem zirka Zigarettenschachtel großen Ger¨at, das man zum Beispiel am G¨ urtel befestigen kann oder einfach in die Tasche steckt (siehe Abbildung 2.21).

Abbildung 2.21: Schmuck als Versteck f¨ ur E/A–Ger¨ate

Das kleine Ger¨at schreibt ununterbrochen Daten in einen Zwischenspeicher, wobei die j¨ ungste Information die jeweils ¨alteste ersetzt. Bet¨atigt der User einen Knopf, wird der Zwischenspeicher auf eine im Ger¨at enthaltene Speicherkarte im MPEG-4 Format geschrieben. Es werden 30 Bilder pro Sekunden mit 320x240 Pixel Aufl¨osung und 24 Bit Farbtiefe gemacht, und auch der Ton wird dazu aufgezeichnet. Eine Akkuladung soll laut Hersteller DEJA VIEW acht Stunden Betrieb erm¨oglichen.8 Das Ger¨at verf¨ ugt auch u ¨ber einen USB-Anschluss, u ¨ber den die kleinen Videos auf Computer u ¨berspielt werden k¨onnen. Mit dem Modell 200XP k¨onnen bis zu vier Stunden Video und Ton aufgezeichnet werden. Die Bildqualit¨at ist aber dabei nicht besser. Wer u usteten PDA verf¨ ugt, kann auch nur das Objektiv mit ¨ber einen entsprechend ausger¨ eingebautem Mikrofon samt Kabel erwerben und seinen tragbaren Computer als Aufnahmeger¨at nutzen.

2.2

Ausgabeger¨ ate

Genau wie bei den Eingabeger¨aten, wird auch bei den Ausgabeger¨aten eifrig geforscht und entwickelt. Von Lampen als Informationsanzeigeinstrument bei Computern ist man schon weit entfernt, obwohl in vielen Bereichen die Lampen oder LED–Anzeigen noch einen hilfreichen Dienst verrichten, und vor allem durch ihre Leuchtkraft und g¨ unstigen Produktionskosten u ur jederman erschwing¨berzeugen. Nach dem TFT–Bildschirme bereits f¨ lich geworden sind, ist der letzte schrei wohl der ”flexible Bildschirm”. Dazu aber etwas sp¨ater. Neben der optischen Anzeige von Information, gibt es eine reihe anderer Ausgabeformen die der Mensch als n¨ utzliche Information aufnehmen kann. Zum Beispiel die akustische 8

http://www.mydejaview.com

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

28

Ausgabe von T¨onen, Musik oder Sprache. Auch die Erzeugung von verschiedensten D¨ uften wird bereits mit viel eifer erforscht.

2.2.1

Displays

Die bekanntesten Vertreter werden grunds¨atzlich in zwei Technologien eingeteilt. ˆ CRT(cathode ray tube–Kathodenstrahlr¨ ohre) Displays basieren auf der konventionellen Fernsehertechnologie. ˆ LCD (liquid crystal diode) Displays sind eine relativ neue Technologie und ihre Produktionskosten daher noch immer relativ hoch.

Eine vielversprechende Technologie sind sogenannte Plasmamonitore. Sie vereinigen alle Vorteile der beiden vorher genannten Technologien, sind aber sehr viel teurer. Es gibt Projekte, bei denen versucht wird, mit Hilfe von Lasern das Bild direkt auf die Retina zu projizieren. Ziel ist es, eine Aufl¨osung von 4000 x 3000 und einem FOV9 von 100o zu erreichen (siehe HMD mit Retinaprojektion 10). 3D-Brillen – Auf einem herk¨ommlichen Monitor werden Stereobilder dargestellt. Mit dem Monitor synchronisiert, ¨offnet und schließt die 3D-Brille mit hoher Frequenz abwechselnd die rechte und die linke Seite der Brille. So erf¨ahrt der Benutzer dreidimensionale Bilder. Alternativ zum Monitor werden auch Projektionsw¨ande verwendet. Surround Displays – Eine sehr attraktive Alternative zum normalen Desktop-Monitor sind große Projektionsschirme. Sie bieten keine besseren Bilder, aber ein weitaus gr¨oßeres Blickfeld. Ein totales Eintauchen in die virtuelle Welt erm¨oglichen CAVE¨ahnliche Displays. Der Benutzer ist umgeben von vielen Flat Screens. Binocular Omni Oriented Monitors (BOOM) – Entwickelt und kommerzialisiert von den Fake Space Labs, stellen BOOMs eine Vereinigung von mechanischen Trackern und der stereoskopischen Bildwiedergabetechnologie dar. Zwei kleine Monitore sind am Ende eines mechanischen Arms befestigt. Der Benutzer ergreift das Ende des Arms und muß die Monitore immer vor Augen f¨ uhren. Diese sind jedoch nicht tragbar und f¨ uhren zu einer eingeschr¨ankten Bewegungsfreiheit des Benutzers. Head Mounted (Coupled) Displays (HMD) – Ein HMD ist ein Ger¨at das am Kopf des Benutzers befestigt wird. Es besteht aus zwei CRT oder LCD Monitoren die vor den Augen des Benutzers plaziert sind. F¨ ur Virtual Rality Anwendungen wird dem Benutzer das Bild in Abh¨angigkeit seiner aktuellen Position und Orientierung, welche durch einen Tracker ermittelt wird, dargestellt. Der Benutzer sieht also sein Umfeld von seiner Position aus. 9

field of view – Blickwinkel

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

29

HMDs k¨onnen in opaque und see–through HMDs eingeteilt werden. Opaque HMDs f¨ ullen das gesamte Blickfeld mit Bildern der virtuellen Welt aus. Sie k¨onnen bei Anwendungen benutzt werden, die eine eigene k¨ unstliche Welt erschaffen (z.B. Walkthroughs, Spiele, ...). See–through HMDs werden dann benutzt, wenn die Realit¨at mit 3D-Objekten u ¨berlagert wird (z.B. Augmented Reality). Name

Typ

Sim Eye see-through CyberMaxx opaque EyeGen3 opaque i-glasses! opaque/seethrough

Art CRT LCD CRT LCD

Auflo ¨sung

FOV (H x V) 1,3M Pixel 60o x 40o 180K Pixel 60o x 53o 123,25K Pixel 35o x 30o 180K Pixel 30o horizontal

Preis ( ) 200.000 800 10.000 800

¿

HMD mit Display Der von MicroOptical Corporation10 entwickelte Head-up Display bedeutet einen weiteren Schritt in Richtung Tragekomfort und Alltagstauglichkeit. Es ist ein unauff¨alliger Display, welcher auf eine conventionelle Brille aufgesteckt werden kann, oder sogar in das Glas eingeschliffen wird. Es ist wohl eines der leichtgewichtigsten und ein sehr ergonomisches Ger¨at und somit ein wirklich praktischer HMD (siehe Abbildung 2.22).

Abbildung 2.22: Thad Starner mit einem HMD von MicroOptical [Mic99]

Man kann diesen Display in normale Augengl¨aser, Sicherheitsbrillen, milit¨arische Brillen, usw. ohne Probleme einbauen. Man ben¨otigt nur ein paar Milimeter Glas, um ein von der Seite (B¨ ugel) pojiziertes Bild in das Auge umzulenken. Der konventionelle HMD positioniert einen Display vor das Auge, MicroOptical jedoch teilt das Problem in zwei Teile, die Bilderzeugung und die Bildpr¨asentation, um einen m¨oglichst unauff¨alligen HMD zu erzeugen. Es wird der miniatur LCD in einen der beiden B¨ ugel eingebaut oder in ein Lf¨ormiges Opticmodul welches man auf den B¨ ugel aufsteckt. Das Bild wird auf eine winzige vor dem Auge platzierte LinsenSpiegel Kombination projiziert und von dort direkt in das 10

http://www.microopticalcorp.com/

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

30

Auge reflektiert. Diese LinsenSpiegel Kombination befindet sich auf einem transparenten Gest¨ange (siehe Abbildung 2.23 links) oder wird direkt in das Brillenglas integriert (siehe Abbildung 2.23 rechts).

Abbildung 2.23: HMD von MicroOptical

MicroOptical arbeitet mit acitve-matrix LCDs und active-matrix elektroluminiscierenden Displays. Diese Ausf¨ uhrung wiegt 30 Gramm bei der Ansteck-Version und 100 Gramm bei der integrierten Version. Sie ben¨otigt 50 bis 80 milliwatt, inclusive ihrer LED Lichtquelle. Ihr virtuelles Bild can zwischen 60cm und unendlich eingestellt werden und das diagonale Sichtfeld liegt zwischen 12 und 15 Grad. Anwendungen w¨aren zum Beispiel das Bild einer Nachtsichtkamera eingeblendet in die Brillen eines Soldaten, ein Feuerwehrmann mit einer speziellen Kamera um durch den Rauch zu sehen, ein Taucher um durch verschmutztes Wasser zu tauchen. Oder man sieht einfach seinen Lieblingsfilm oder Computerbildschirm w¨ahrend eines Fluges oder einer Zugfahrt. ”It’s easy to build something you’re going to look at for a minute, but for something you may look at for an hour, that’s a different story.”, sagt Chief Executive Officer Mark Spitzer von MicroOptical. HMD mit Retinaprojektion Der Retina scanning Display ist ein HMD mit direkter Retinaprojektion. Hierbei wird das virtuelle Bild u ¨ber lichtbrechende und lichtreflektierende Elemente direkt in die Retina des Auges projiziert. Mann kann dabei auch das virtuelle Bild dem reellen Bild u ¨berlagern und das resultierende ins Auge einblenden. Drei Strahlen mit den Grundfarben werden dabei fokusiert um ein farbiges Bild zu erhalten. Der resultierende Lichtstrahl wird dann wie beim Fernseher punktweise, Zeile f¨ ur Zeile, direkt in das Auge projiziert. Bei der Lichtquelle handelt es sich nat¨ urlich um eine sehr leistungsarme Quelle, um das Auge nicht zu verletzen (siehe Abbildung 2.24). Display-Folien Eine neue Errungenschaft ist der sogenannte ”Foliendisplay”. Diese Art von Display besteht aus einer d¨ unnen, biegsamen Folie und ist deshalb f¨ ur ganz neue Einsatzgebieten verwendbar. Einen der ersten dieser Gattung zeigt Abbildung 2.25, dieser hat nur die M¨oglichkeit schwarze Farbe auf grauen Hintergrund darzustellen. Aufregender sind da schon die n¨achsten zwei Prototypen eines Farb–Foliendisplays. Abbildung 2.26 zeigt links einen R¨ohren–Rechner mit aufrollbaren Bildschirm und Sprachein-

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

31

Abbildung 2.24: Direkte Retinaprojektion von Microvision [Mic03]

gabe anstatt einer Tastatur. Rechts ist die Verwendung als Landkarte dargestellt. Hier stehen alle Funktionen einer GIS–Anwendung zur Verf¨ ugung, von der Zoom–Funktion bis zum Anzeigen aktueller Daten via Internetverbindung. Mit dieser Technologie k¨onnen nat¨ urlich auch Plakatw¨ande best¨ uckt werden, um bequem u ¨ber das Internet die Werbeeinschaltung steuern zu k¨onnen. Oder man stelle sich vor dieser Stoff kann in Kleidungsst¨ ucke eingearbeitet werden. Das Milit¨ar h¨atte eine ideale Tarnbekleidung, durch eine Kamera wird die Umgebung analysiert und das entsprechende Tarnmuster auf der Kleidung angezeigt. Wenn man vom Golfplatz zum Abendessen geht, w¨ahlt man anstatt des Poloshirts einfach den Abendanzug ohne sich um zu ziehen. Ein Kreislaufproblem kann direkt optisch angezeigt werden. Zum Beispiel als rasendes Herz auf der Brust. Auch zum Anzeigen einer Straßenkarte auf einer Jacke w¨are ein solcher Stoff geeignet (siehe Abbildung 2.27). Diese und noch viel mehr neue Anwendungsgebiete wird man mit dieser Technologie finden. Weitere Displays Es k¨onnen bereits eine Vielzahl von Displays auch f¨ ur kommerzielle Zwecke produziert werden. Kleine, flexible, leichte, elegante,. . . einige Displays mit diesen Eigenschaften zeigt Abbildung 2.28).

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

32

Abbildung 2.25: Einer der ersten Foliendisplays

Abbildung 2.26: Foliendisplay mit Farbdarstellung

2.2.2

Haptische Ger¨ ate

Zwei Typen von haptischen Eindr¨ ucken die vom Menschen wahrgenommen werden k¨onnen sind: ˆ kinesthetic (Force) Feedback – Muskeln, Gelenke und Sehnen werden Kr¨ aften ausgesetzt. ˆ tactile Feedback – beinhaltet Feedback u ¨ber die Haut, wie zum Beispiel den Tastsinn.

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

33

Abbildung 2.27: Blu; Konzept von Lunar Design [Des01]

Force Feedback Um das Nat¨ urliche in VR–Systemen hervorzuheben und zu unterst¨ utzen, wurden viele Ger¨ate (Datenhandschuh, Dexterous Manipulators, Joysticks, ...) mit Force Feedback ausgestattet. Zus¨atzlich wurden Ger¨ate entwickelt, die bestimmte K¨orperteile stimulieren sollen. Tactile Feedback Tactile Feedback ist viel sensibler als Force Feedback. Deshalb ist nat¨ urlich auch die Herstellung und Entwicklung viel aufwendiger. Die Simulation kann zum Beispiel durch vibrierende Module, aufblasbare Blasen oder electrorheological fluids (Fl¨ ussigkeiten, deren z¨ahfl¨ ussiger Zustand sich bei Erh¨ohung eines angelegten elektrischen Feldes erh¨oht), die sich zum Beispiel direkt unter der Oberfl¨ache eines Datenhandschuhes befinden. Zur Zeit ist es leider noch nicht m¨oglich die gesamte Bandbreite an Informationen, die wir u ¨ber die Haut aufnehmen k¨onnen, zu manipulieren. Es ist zum Beispiel m¨oglich die Oberfl¨ache virtueller Gegenst¨ande zu simulieren, aber nicht deren Struktur.

2.2.3

Audio–Ausgabe

Der proportionale Anteil des H¨orsinns betr¨agt ca. 20% der menschlichen Wahrnehmung (Tastsinn 1%). Deshalb ist es sehr wichtig, in einem VR-System m¨oglichst reale Soundverh¨altnisse darzustellen. Dabei m¨ ussen folgende Punkte beachtet werden:

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

34

Abbildung 2.28: Displays verschiedenster Art

ˆ Weg vom ger¨ auschausl¨osenden Punkt bis zum Ohr ˆ eventuelle virtuelle Hindernisse ˆ Echos ˆ Geometrie virtueller Objekte ˆ Oberfl¨ achenstruktur der virtuellen Objekte ˆ die Form des ¨ außeren Ohres des Benutzers

Drei Punkte sind zur erfolgreichen Simulation einer akustischen Umgebung notwendig: Sound Generation – Die Ger¨ausche k¨onnen entweder generiert oder gesampled sein, die dann playback abgespielt werden. Spatial propagation – Dies ist die teuerste und rechenintensivste Stufe. Hier m¨ ussen alle, den Ton beeinflussenden Faktoren, analysiert und berechnet werden (z.B. Echo). Mapping of parameters – Letztendlich m¨ ussen die einzelnen berechneten Ger¨ausche mit Hilfe von Filtern kombiniert werden und dann an den Mann gebracht werden. Die Ausgabe geschieht meistens durch ein Dolby Surround System.

2.2.4

Geru ¨ che

Das kalifornische Unternehmen DigiScents und der Schweizer Dufthersteller Givaudan arbeiten an der Duftausgabe, die beiden wollen zusammen das Internet mit duftenden E-Mails und Webseiten aufmischen. N¨otig ist dazu ein kleines Ger¨at, dass wie der Drucker an den PC angeschlossen werden kann. Sender von E-Mails und Master von Webseiten l¨osen durch entsprechende Pro¨ grammierung beim Offnen der Post oder der Seite einen Impuls aus, der dem Bedufter

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

35

Abbildung 2.29: Designsstudie eines Bedufters

am Empf¨angerger¨at meldet, welche Mischung verlangt wird. Eine D¨ use spr¨ uht dem Leser der eMail den gew¨ unschten Duft ins Gesicht (siehe Abbildung 2.29). Beim Ger¨at von Givaudan [Giv03] ¨offnen sich R¨ohrchen mit verschiedenen Riechsubstanzen, computergesteuert genau nach dem gew¨ unschten Rezept. Ein Gas bl¨ast die verschiedenen Parfumd¨ampfe zu einem Ventil. Die einzelnen Duftnoten werden gemischt und ¨ treten als neue Kreation aus einer Offnung hervor. Man geht davon aus, dass man mit 20 bis 40 Basisstoffen im Prinzip alle beliebigen D¨ ufte mischen kann. DigiScents [Dig03] arbeitet an einem kleinen Duftverstr¨omer, der in Lautsprechergr¨oße dezent neben dem PC platziert werden kann. Die komplizierte Technologie des automatischen Duftmischers auf Miniaturformat zu bringen, ist eine Aufgabe, die DigiScents sich gestellt hat und bald gemeistert haben will. Die Firma ”TriSenx” hat bereits ein Ger¨at mit dem D¨ ufte und Geschm¨acker ausgedruckt ¨ werden k¨onnen auf den Markt gebracht. Ahnlich wie bei einem Tintenstrahldrucker ist das Ger¨at mit verschiedenen Patronen ausger¨ ustet. Diese enthalten verschiedene chemische Substanzen, die dann je nach Bedarf zusammengemixt werden und per Druckkopf die entsprechenden Duftnoten auf Faserkarton auftragen. Damit kann dann bei der Internet– Pizza–Bestellung vorher an der Pizza gerochen werden. ”TriSenx” will den ”Duft-Drucker” auch f¨ ur essbares Papier tauglich machen, sodass verschiedene Geschm¨acker hergestellt werden k¨onnen. [Tri03]

2.3

Forschung und Entwicklung

Eine der wichtigsten Herausforderungen f¨ ur die Wissensgesellschaft ist derzeit die Schaffung intelligenter Benutzerschnittstellen, die den nat¨ urlichen Kommunikationsstil von Computerlaien akzeptieren und so unterst¨ utzen, daß eine f¨ ur den Menschen intuitive und benutzergerechte Mensch-Technik-Interaktion entsteht. Die starke Zunahme an ITAnwendungen in allen Lebensbereichen verursacht einen Bedarf an effektiveren, effizienteren und nat¨ urlicheren Schnittstellen, um den Zugriff auf Information und Anwendungen zu erleichtern. Dieser Bedarf wird weiter gesteigert durch die rasch zunehmende Komplexit¨at der IT-Systeme und durch die immer geringere Zeit, welche den Benutzern zum Ausf¨ uhren von Aufgaben und das Erlernen von Bedienkonzepten zur Verf¨ ugung steht. Im Leitprojekt SmartCom (Arbeitskreis zur Schaffung intuitiver User–Maschine Kom-

¨ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERATE

36

munikation) werden Konzepte f¨ ur die Entwicklung v¨ollig neuartiger Formen der MenschTechnik-Interaktion erprobt. Diese Konzepte werden die bestehenden Hemmschwellen von Computerlaien bei der Nutzung der Informationstechnologie abbauen und so einen Beitrag zur Nutzerfreundlichkeit und Nutzerzentrierung der Technik in der Wissensgesellschaft liefern. Das Ziel von SmartKom ist die Erforschung und Entwicklung einer selbsterkl¨arenden, benutzeradaptiven Schnittstelle f¨ ur die Interaktion von Mensch und Technik im Dialog. Das Vorhaben wird von der Vorstellung geleitet, die Vorteile sprachlich dialogischer Kommunikation zu verschmelzen mit den Vorteilen graphischer Bedienoberfl¨achen und gestisch mimischen Ausdrucks. Das Ergebnis soll eine h¨oherwertige Benutzerschnittstelle sein, die die nat¨ urlichen menschlichen Sinne in gr¨oßerem Umfang als bisher ber¨ ucksichtigt. SmartCom soll damit einen wichtigen Schritt zur Entwicklung einer auf den Menschen zugeschnittenen Informationstechnologie darstellen [Sma03].

Kapitel 3 Wearable Computing 3.1 3.1.1

Einfu ¨ hrung Wearable Computing Was ist Wearable Computing?

Mobile Computing ist eines der aktuellen Schlagworte moderner Informationstechnologie. Bislang wurde unter diesem Begriff die Mitnahmem¨oglichkeit von Notebooks und Handhelds mit entsprechend angepasster Software bzw. Betriebssystemen verstanden. Dem gegen¨ uber stehen neueste Entwicklungen, die ein echtes Tragen von Rechnersystemen am K¨orper erm¨oglichen und die Metapher ”Wearable Computing” pr¨agen. In diesem Zusammenhang steht der Begriff der Hardwear f¨ ur eine neue Generation von Computersystemen. Sie erm¨oglicht den mobilen Einsatz unter extremen Bedingungen und in neuen Anwendungsgebieten. Diese sprachgesteuerten Rechner unterst¨ utzen den Benutzer zum Beispiel bei Arbeiten wie Inventur, Inspektion und Wartung komplexer Anlagen oder bei der Aufnahme von Daten im freien Gel¨ande. Also in solchen Bereichen in denen herk¨ommliche Personal Computer unhandlich und dadurch schlecht zu verwenden sind. Der Einsatz solcher Rechnersysteme ist dann produktivit¨atssteigernd, wenn der Anwender beide H¨ande zum Arbeiten frei haben muss, keine Abstellfl¨ache zur Verf¨ ugung hat und bei seiner T¨atigkeit dennoch auf die Unterst¨ utzung durch Computer angewiesen ist. Ein wesentliches Merkmal dieser neuen Computersysteme ist der Umfang der Hardwareausstattung, die bei minimaler Baugr¨oße der Leistungsf¨ahigkeit eines Desktop Computers entspricht. Ihre Leistungsf¨ahigkeit unterscheidet diese Systeme damit erheblich von herk¨ommlichen PDA oder Handheld Computern und erm¨oglicht damit eine F¨ ulle neuer Anwendungen. In den USA haben große Unternehmen der Luftfahrtindustrie und der Automobilbranche das Potential dieser Technologie bereits erkannt und setzen diese tragbaren Systeme ein (siehe Abbildung 3.1). Der Nutzen dieser neuen Technologie ist dabei in zwei Ebenen zu sehen. Auf der einen Seite k¨onnen durch die Erschließung neuer Anwendungsbereiche, neue Wege zur Steigerung der Produktivit¨at erschlossen werden. Auf der anderen Seite bietet diese neue Technologie Raum f¨ ur die Entwicklung neuer Produkte und Dienstleitungen. Bis heute ist der ”Personal Computer” seinen Namen nicht gerecht geworden. Unter einem

37

KAPITEL 3. WEARABLE COMPUTING

38

Abbildung 3.1: Modell MA-IV von Xybernaut mit HMD und Armtastatur

Wearable Computer darf man viel mehr verstehen als ein Ger¨at zur aktiven Benutzung. Die meisten Computer stehen an einem Arbeitsplatz und werden eine verh¨altnism¨aßig kurze Zeit von Ihren Besitzern interaktiv ben¨ utzt. Notebooks haben uns zwar mobiler gemacht, sind jedoch in ihrer Funktion noch immer sehr stark von der Benutzerinteraktion abh¨angig. Wearable Computing soll diese Vorstellungen eines Personal Computer ¨andern. Ein Wearable Computer soll h¨aufiger getragen werden als Augengl¨aser oder Kleidung, und er soll mit dem Anwender situationsabh¨angig interagieren. Mit Head–Up Displays, unorthodoxen Eingabeger¨aten, personal wireless local area networks und eine Menge anderer ”context sensing” und Kommunikationswerkzeugen, kann der Wearable Computer als ein intelligenter Assistent agieren. Aufgaben selbstst¨andig durchzuf¨ uhren und das auch ohne zuvor vom Benutzer dazu aufgefordert zu werden, wird durch Anwendungen wie dem ”Remembrance Agent”, ”Augmented Reality” oder ”Intellectual Collectives” erreicht. Programme die Erinnerungsfunktionalit¨at aufweisen, einem Anwender dadurch viele Nebens¨achlichkeiten abnehmen k¨onnen und ihn somit unauff¨allig viel Zeit und M¨ uhen ersparen, sind Projekten die bereits Entwickelt werden und zum Teil schon im Einsatz sind.[MIT03] Auch in Europa hat ”Wearable Computing” bereits eine Plattform gefunden. Eine Reihe von Anwendern erarbeiten zusammen mit Technologie–Unternehmen und Universit¨aten innovative L¨osungen auf der Basis tragbarer Computer. Diese Arbeit soll dazu dienen, den ¨ Nutzen der Technologie in unterschiedlichen Anwendungen aufzuzeigen und eine Ubertragbarkeit bereits existierender L¨osungen auf neue Problemstellungen zu diskutieren. Steve Mann, einer der Vorreiter im Bereich Wearables, definiert den Begriff ”Wearable Computing” wie folgt.[Man98] Wearable computing facilitates a new form of human–computer interaction comprising a small body–worn computer (e.g. user–programmable device) that is always on and al-

KAPITEL 3. WEARABLE COMPUTING

39

ways ready and accessible. In this regard, the new computational framework differs from that of hand held devices, laptop computers and personal digital assistants (PDAs). The ”always ready” capability leads to a new form of synergy between human and computer, characterized by long–term adaptation through constancy of user–interface.

3.1.2

Die Betriebsarten des Wearable Computing

Ein Wearable Computer ist also ein Computer der in die Umgebung des Benutzers eingebettet ist, vom Benutzer kontrolliert wird und der immer und u ¨berall eingeschalten und funktionsbereit ist. Das wichtigste ist, das der Wearable dem Benutzer immer zur Verf¨ ugung steht und zu jeder Zeit und in jeder Situation Kommandos aufnehmen und verarbeiten kann. Notwendig ist auch eine m¨oglichst flexible Konfigurierbarkeit bzw. Erweiterungsf¨ahigkeit dieser Ger¨ate. Das ist der Unterschied zu anderen tragbaren Ger¨aten wie Radios, Uhren, Brillen oder ¨ahnlichem. Wearable Computing wird u ¨ber seine drei grunds¨atzlichen Betriebsarten und durch seine sechs fundamentellen Eigenschaften definiert. ˆ Constancy:

Der Computer l¨auft ununterbrochen, und ist immer bereit mit dem Benutzer zu kommunizieren. Anders als ein Hand–Held Ger¨at, Laptop oder PDA, muß ein Wearable nicht zuerst ge¨offnet und eingeschaltet werden um ihn zu verwenden. Der Signalfluss zwischen Mensch und Computer l¨auft kontinuierlich um ein st¨andiges User–interface bereit zu stellen. ˆ Augmentation:

Bei der traditionelle Anwendung des Computers liegt das Hauptaugenmerk beim Computer. Wearable Computing, wie auch immer, ist darauf ausgerichtet, dass der Computer im Hintergrund steht. Zusammengefasst heißt Wearable Computing, dass der Benutzer ganz unterschiedliche Dinge macht w¨ahrend er mit dem Computer arbeitet, aktiv oder passiv. Somit soll der Computer den Intellekt vergr¨oßern, oder die Sinneswahrnehmungen verbessern. ˆ Mediation:

Anders als Hand–Held Ger¨ate, Laptops und PDAs, kann uns der Wearable Computer unabh¨angig machen. Es ist nicht notwendig uns komplett zu verschließen, aber das Konzept erlaubt uns eine viel gr¨oßere Unabh¨angigkeit als traditionelle tragbare Computer. Hier gibt es zwei Aspekte dieser Unabh¨angigkeit: – Solitude: Es kann als Informationsfilter dienen und somit die von uns unerw¨ unschten Dingen abblocken. Ob es ungewollte Werbung ist oder einfach der Wunsch existierende Medien (z.B.: Werbetafeln von Katzenfutter) mit anderen Medien (z.B.: Palmers–Werbung) auszutauschen. Das Wearable Computing erlaubt uns auch auf einfache Weise die Wahrnehmung unserer Umgebung zu ¨andern. – Privacy: Mann kann auch Information die unseren Privatbereich verl¨asst, blocken oder ver¨andern. Auch andere Technologien wie zum Beispiel Desktop

KAPITEL 3. WEARABLE COMPUTING

40

Computer, k¨onnen uns dabei helfen unsere Privatsph¨are mit Programmen wie Pretty Good Privacy (PGP) zu sch¨ utzen. Die Achilles–Verse dieser Systeme ist jedoch die Schnittstelle zwischen Benutzer und Ger¨at. Es ist generell bei weiten einfacher f¨ ur einen Angreifer diesen Link zwischen uns und dem Computer zu attackieren, als die Verbindung von unserem Computer und einem Anderen. Somit kann das Wearable Computing eine neue Art von Privatsph¨are erzeugen, da er quasi st¨andig getragen wird. Somit besteht schon alleine eine viel geringere M¨oglichkeit einer Attacke auf die Hardware selbst. Weiters wird durch die Synergien zwischen Mensch und Computer, das direkte Attackieren, wie zum Beispiel das u ¨ber die Schulterschauen beim Eingeben eines Passwortes via Tastatur, erschwert. Schließlich ist es auch viel einfacher sich gegen das Abh¨oren von Radiofrequenz–Emissionen zu sch¨ utzen. Zum Beispiel wenn der Wearable in einer Unterw¨asche integriert wird und die dar¨ uberliegende Kleidung durch eine spezielle Behandlung wie das Aufdampfen einer Metallfolie, das Durchdringen dieser Emissionen verhindert. Durch diesen direkten Kontakt kann der Computer auch eine Vielzahl an physiologischen Daten des Benutzers erfassen und nutzen.

3.1.3

Die Eigenschaften des Wearable Computing

Folgende Eigenschaften machen einen Wearable erst zu dem was er sein soll. ˆ Keine eingeschr¨ ankte Aufnahmef¨ahigkeit des Benutzers:

Er schneidet sie nicht von der realen Welt ab, wie es Beispielsweise ein Virtual Reality Game macht. Man kann seine Aufmerksamkeit auf andere Dinge lenken w¨ahrend man den Wearable benutzt. Es ist also eine sekund¨are Aktivit¨at, die verbesserte sensorische M¨oglichkeiten zur Verf¨ ugung stellt. ˆ Keine Einschr¨ ankungen f¨ ur den Benutzer:

Man kann andere Dinge tun w¨ahrend man ihn benutzt. Zum Beispiel kann man Text schreiben w¨ahrend man joggt, etc. ˆ Wahrnehmbar vom Benutzer:

Er kann jederzeit Ihre Aufmerksamkeit haben wenn sie es m¨ochten. Immer und ¨ Uberall steht das Ger¨at zu Ihrer Verf¨ ugung. Das Ausgabemedium steht immer f¨ ur den Benutzer bereit. ˆ Kontrollierbar durch den Benutzer:

Man kann jederzeit die Kontrolle u ¨bernehmen. ˆ Aufmerksamkeit gegen¨ uber der Umwelt:

Der Wearable reagiert und handelt situationsbezogen (situational awareness). Damit ist gemeint, dass er abh¨angig von Zeit, Ort und anderen Parametern unterschiedlich Prozesse ausf¨ uhrt. Zum Beispiel wenn man am Abend die Wohnung betritt, schaltet er automatisch das Licht ein und am Tag wenn es hell ist nicht. Wenn ich eine Person ¨ treffe, durchsucht er automatisch die Datenbank nach einer Ubereinstimmung mit

KAPITEL 3. WEARABLE COMPUTING

41

dieser Person und gibt die n¨otigen Daten wie Name, Beruf, Thema des letzten Gespr¨aches,. . . aus. ˆ Kommunikation mit anderen:

Er kann als Kommunikationsmittel verwendet werden. Man kann u ¨ber den Wearable kommunizieren oder ihn als zus¨atzliche Kommunikationshilfe benutzen (Visitenkartenaustausch; w¨ahrend ich dem Arzt sage was mir weh tut, u ¨bermittelt er meine Krankengeschichte und aktuelle physiologische Daten wie Herzrythmus, Sauerstoffgehalt im Blut,. . . ) ˆ Immer bereit:

M¨oglicherweise im sleep modus aber niemals abgeschalten. ˆ Pers¨ onlich:

Mensch und Computer sind g¨anzlich miteinander verbunden. ˆ Unauff¨ allig:

Man kann ihn so adaptieren, dass er als echte Erweiterung des Gehirns und des K¨orpers agiert. Nach einiger Zeit vergisst man das man ihn tr¨agt. ˆ Privat:

Niemand kann ihn beobachten oder kontrollieren wenn man es nicht w¨ unschen.

3.2

Geschichtlicher Ru ¨ ckblick

Der erste Versuch einen PC zum st¨andigen Wegbegleiter zu machen, war der Sprung vom Desktop zum Laptop, von vielen auch als Schlepptop bezeichnet. Anfangs waren diese nur f¨ ur Betuchte und f¨ ur Gesch¨aftsleute erschwinglich, heute liegt der Preis eines Laptops ann¨ahernd bei dem eines PC’s. 1665 Robert Hooke The next care to be taken, in respect of the Senses, is a supplying of their infirmities with Instruments, and as it were, the adding of artificial Organs to the natural. . . and as Glasses have highly promoted our seeing, so ’tis not improbable, but that there may be found many mechanical inventions to improve our other senses of hearing, smelling, tasting, and touching.[Hoo65] 1960 Heilig patentierte einen stereophonic Television Head–Mounted Display (HMD). Gefolgt von seinem Patent f¨ ur den ”Sensorama Simulator” (US Patent #3,050,870) 1962.[Rhe91] Manfred Clynes pr¨agte erstmals den Begriff ”Cyborg” in einer Geschichte mit dem Titel ”Cyborgs and Space” erschienen im Astronautics (September 1960). Diese Geschichte wurde im Buch ”The Cyborg Handbook” von Chris Hables Gray nochmals abgedruckt. 1967 Bell Helicopter Company experimentierte mit HMDs die Bilder von servogesteuerten Kameras erhielten. Bei einem war eine Infrarotkamera angeschlossen die sich an der Unterseite eines Milit¨ar–Hubschraubers befand, um den Piloten die M¨oglichkeit zu geben bei Nacht zu landen.[Com67]

KAPITEL 3. WEARABLE COMPUTING

42

1968 Douglas Engelbart stellte das NLS System (oN Line System) mit einem ”One– Handed Chording Keyboard” vor. Das System beinhaltet unter anderem eine One– Handed Chording Keyboard, word processing, outline processing, split windows, hypermedia, mouse, shared documents, e–mail filtering, desktop conferencing, annotation of shared documents, interactive sharing, quarter sized video sharing, turn taking, und network information. 1981 Steve Mann packte einen 6502 Computer (wie im Apple–II verwendet) in einen robusten Rucksack um seine Photoausr¨ ustung damit zu kontrollieren. Der Display war ein Kamera–Sucher CRT, der auf einem Helm befestigt war. Dieser konnte 40 Zeilen Text darstellen. Zur Texteingabe benutzte er sieben Mikroschalter die in den Griff des Blitzlichtes eingebaut waren. Das gesamte System wurde von normalen Batterien versorgt. 1984 William Gibson schrieb ”Neuromancer”. Dieses Buch gr¨ undete das Genre von Cyberpunk, die d¨ ustere Zukunft der Menschen mit Computerimplantaten. ¨ 1987 Der Film Terminator zeigt aus der Sicht des Terminator–Cyborg, die Uberlagerung von grafischer Information u ¨ber das Bild der realen Welt. 1989 Private Eye HMD von Reflection Technology wird kommerziell angeboten.[Tec89] 1990 Gerald Maguire und John Ioannidis demonstrierten das ”Elektronische Notebook f¨ ur Studenten”.[MI90] 1991 Doug Platt baut seinen ”Hip–PC” CMU Team entwickelt den VuMan 1.[Tea91] http://www.cs.cmu.edu/afs/cs. cmu.edu/project/vuman/www/home.html Mark Weiser stellt die Idee von ”Ubiquitous Computing” im Scientifitc American vor. Eine Welt in der die meisten allt¨aglichen Dinge computerisierte Teile eingebaut haben.[Wei91] 1993 Thad Starner beginnt mit dem dauerhaften Tragen seines Computers. Im Juni haben Doug Platt und Thad Starner begonnen das erste System f¨ ur Starner, mit einem Private Eye Display und einem Twiddler Keyboard, zu bauen. Einige Ausbaustufen sp¨ater wurde daraus der Wearable Computer ”Tin Lizzy” des MIT.[PS93] BBN beendete im Herbst das Pathfinder System, ein Wearable Computer mit GPS und einem Strahlungssp¨ ur–System. Thad Starner schrieb die erste Version des Remembrance Agent(RA). Der RA war ein automatischer assoziativer Speicherzugriff, der relevante Files, zum gerade eingegebenen Text auf einem Wearable, von einer Datenbank abruft. Dieser RA wurde in den Emacs integriert, und sp¨ater von Bradley Rhodes noch weiterentwickelt.[Sta93] Feiner, MacIntyre, und Seligmann entwickelten das KARMA (Knowledge–based Augmented Reality for Maintenance Assistance). Der Benutzer tr¨agt einen Private Eye Display u ¨ber einem Auge und konnte somit die reale Welt mit der virtuellen u berlagern. KARMA hat Wireframe Schematas u ¨ ¨berlagert und legte Instruktionsangaben u ¨ber alles was zu reparieren war. Zum Beispiel hat ein Wireframe u ¨ber einem Drucker erkl¨art wie das Papier zu wechseln ist.[FMS93]

KAPITEL 3. WEARABLE COMPUTING

43

1994 Mik Lamming und Mike Flynn Entwickelten ”Forget–Me–Not”, ein Wearable Ger¨at das Interaktionen zwischen Leuten und Ger¨aten aufnimmt und speichert diese Information in einer Datenbank zur sp¨ateren Abfrage. Erster Wrist Computer (Computer am Unterarm) mit Half–Keyboard von Edgar Matias und Mike Ruicci von der Universit¨at von Toronto.[MR94] DARPA begann mit der Entwicklung von Modulen f¨ ur Wearables. Unter anderem Computer, Radios, Navigationssysteme, Mensch–Computer–Interfaces, usw. welche milit¨arisch als auch kommerziell Anwendbar sind. Im Dezember Entwickelte Steve Mann die ”Wearable Wireless Webcam” und begann ¨ das Ubertragen von Bildern ins Internet, die er mittels einer Head Mounted Camera machte. 1996 DARPA sponsert ”Wearables in 2005” Workshop. Dieser Workshop brachte Vision¨are der Industrie, Universit¨at und des Milit¨ars zusammen. Konferenz f¨ ur Wearable Computing wo 204 Forscher, Akademiker, unabh¨angige Laboratorien sowie Leute aus der Industrie teilnahmen. Einige Verk¨aufer von Displays, Spracherkennungssystemen und voll funktionsf¨ahigen Wearable Computers nahmen ebenfalls teil. 1997 Fashion Show von Studenten der UNI Paris und Prof. Alex Pentland vom MIT Boston, mit dem Ziel den engen Zusammenhang zwischen Kleidung und Wearable Computing zu zeigen. October 13 – 14; Erstes IEEE Internationales Symposium f¨ ur Wearable Computers 1 in Cambridge . 1998 Internationale Konferenz f¨ ur Wearable Computing. ICWC–982 , Fairfax VA, May 1998 2001 7th Annual International Conference on Mobile Computing and Networking. ACM SIGMOBILE 3 2002 ”Wearable computing to defeat terrorism”. Diese Schlagzeile im ”The Register”4 , l¨oste eine rege Diskussion u ¨ber die M¨oglichkeiten des ”Wearable Computer” zur Terrorbek¨ampfung aus. Sp¨atestens im Jahre 2000 w¨are es nicht mehr n¨otig besondere Entwicklungsschritte im ”Wearable Computing” heraus zu heben, da sich dieser Bereich in der Forschung und Entwicklung bereits wie ein Virus verbreitet hat. Es wird an allen Ecken und Enden u ¨ber neue Techniken und Anwendungsm¨oglichkeiten nachgedacht, außerdem werden immer mehr Symposien abgehalten, um sich untereinander auszutauschen. 1

http://iswc.gatech.edu/wearcon97/default.htm http://www.icwc.edu 3 http://www.research.ibm.com/acm sigmobile conf 2001/index.html 4 http://www.theregister.co.uk/content/54/24328.html 2

KAPITEL 3. WEARABLE COMPUTING

3.3

44

Tragbarkeit: Tragekomfort

Die heute erh¨altlichen Wearable Computer Systeme haben bereits ein akzeptierbar geringes Gewicht, wobei noch bei weitem keine Rede von Tragekomfort ist. Neben der CPU– Einheit ist die Stromversorgung ein Teil der das Gesamtgewicht stark erh¨oht. Der n¨achste Schritt in Richtung Unauff¨alligkeit ist die Verwendung der Kleidung als Versteck bzw. zur Komfortsteigerung. Kleidung bietet angefangen von Sensoren (Thermometer zur Messung der K¨orpertemperatur) u ¨ber die Energieversorgung (Solarzellen an der Jackenaußenseite) bis hin zu eingebrachten Leiterbahnen (keine Kabeln unterm Hemd) viele M¨oglichkeiten das Wearable Computing unauff¨alliger zu machen. Neben der M¨oglichkeit den Wearable in der Kleidung zu verstecken, liegt auch ein Hauptaugenmert in der Miniaturisierung. Man versucht zum Beispiel einen Kopfh¨orer in einen Ohrring zu bekommen, einen Ring als Maus zu verwenden, in einer ganz normalen Brille einen Display zu integrieren und vieles andere mehr. Es gibt bereits Versuche Computer–Chips direkt in den K¨orper zu implantieren, um die Funktionsf¨ahigkeit und die Vertr¨aglichkeit zu studieren. Das Einsetzen eines Herzschrittmachers war der erste Schritt in diese Richtung. Man darf also damit rechnen, daß der Benutzer eines Wearable Computer in Zukunft nicht mehr als solcher erkannt wird, da sich die Ger¨ate an unser Aussehen anpassen werden. Die Frage bleibt, ob wir uns nicht selbst ver¨andern werden. Es liegt ja nicht in der Natur des Menschen mit einem nicht erkennbaren Computer zu sprechen, um vielleicht eine e–mail zu diktieren oder ihn zu fragen vor welchen Geb¨aude man gerade steht und er Information dar¨ uber, ¨ direkt aus dem Internet als virtuelle Uberlagerung vor das Auge projiziert. Aus einfachen Kleidungsst¨ ucken werden ”smart objects”, die wegen ihrer spezifischen Position am K¨orper eine Aufgabe im pers¨onlichen Computernetz zugewiesen bekommen. Die Schuhe werden zur Energieerzeugung oder als Empf¨anger benutzt. Brillen beherbergen Bildschirme. Kappen bilden als h¨ochster Punkt Sende– und Empfangsstation f¨ ur die Daten. Smarte Unterw¨asche und Oberbekleidung kontrollieren den Gesundheitszustand und regulieren die K¨orpertemperatur u ¨ber den Temperaturwechsel der Kleidung. Die Bilder der Beauty–Show zeigen Entw¨ urfe f¨ ur derartige Kleidungsst¨ ucke.[MIT ]

3.4

Energie

Wearable Computer Systeme ben¨otigen im Betrieb gespeicherte Energie, die im Normalfall von Akkus bereitgestellt wird. Es ist durch den begrenzten Energievorrat jedoch n¨otig, die vorhandenen Systeme auf ihren Energieverbrauch hin zu optimieren und die zur Verf¨ ugung stehenden Komponenten optimal zu nutzen. Die gr¨oßten Energieverbraucher sind bei einem Wearable System die CPU, der Bildschirm und die Festplatte. Nat¨ urlich sollten daher Strategien zur Optimierung des Energieverbrauches bei diesen Komponenten ansetzen. Bei Sekund¨arspeichern kann man durch die Verwendung eines DRAM–Cache den Energieverbrauch um bis zu 50% verringern, da ein großer Teil der Energie beim Hochfahren der Festplatte verbraucht wird. Im Gegensatz zu Wearable Systemen, werden Prozessoren bei herk¨ommlichen Computersystemen (Desktop) vor allem auf Leistung und Taktfrequenz ausgelegt. Erst seit dem Einzug tragbarer Ger¨ate wird auch bei der Entwicklung von Prozessoren auf geringeren Energieverbrauch R¨ ucksicht genommen. Eine M¨oglichkeit Energie einzusparen besteht

KAPITEL 3. WEARABLE COMPUTING

45

darin, die Taktfrequenz zu senken oder unbenutzte Teile des Prozessors ganz wegzuschalten, indem man die Taktfrequenz auf Null setzt. Man kann den Prozessor sogar ganz abschalten wenn er sich im Leerlauf befindet. Dieser Vorgang wirkt sich auch positiv auf die Energiebilanz der restlichen Hardware aus. Auch das so genannte Remote–Prozessing ist hier ein Stichwort. Dabei werden die Daten u ¨ber ein Netzwerk zu einem Hostrechner verschickt, welcher die Daten auswertet und das Ergebnis zur¨ uck sendet. Zu den gr¨oßten Energieverbrauchern unter den Hardware–Komponenten geh¨ort noch immer der Bildschirm. Hier w¨ urde vom Umgebungslicht abh¨angige Beleuchtungsst¨arke des Bildschirms viel Energie einsparen. Auch ein Sensorsystem das erkennt, ob ein Benutzer den Bildschirm betrachtet und ihn dann aktiviert, w¨are denkbar. Nicht nur bei der Hardware, sonder auch bei der Software gibt es viele Ans¨atze um Energie einzusparen. Erst durch ein gutes Zusammenspiel zwischen Hard- und Software kann man die besten Ergebnisse erzielen. Prinzipiell wird ein Energiemanagement auf Betriebssystemebene die meisten Vorteile besitzen. Unterst¨ utzt wird dies durch eine grobe Vorgabe des Anwenders, welcher eine der m¨oglichen Energiesparmaßnahmen ausw¨ahlt. Ein weiterer Punkt zur Energieeinsparung ist das sogenannte Remote–Processing. Darunter versteht man die Bearbeitung von einem oder mehreren Tasks durch einen entfernten Server (z.B. Kompilieren eines großen Programms oder das L¨osen eines komplexen Gleichungssystems). Der Wearable Computer schickt also den entsprechenden Task zum Server, dieser ermittelt die geforderten Ergebnisse und sendet diese wieder zum Wearable zur¨ uck. In der Zwischenzeit kann der Client andere Tasks abarbeiten oder in den Idle–Mode gehen (zum Beispiel die Festplatte und den Bildschirm abschalten). Remote Processing zahlt sich jedoch nur aus, wenn die Applikation mehr als 1% der gesamten ¨ Akkuenergie verbraucht. Denn f¨ ur die Ubertragung der Daten wird bereits mehr als 1% der Akkuenergie ben¨otigt. Es kann gezeigt werden, dass durch Remote–Processing von großen Tasks, bis zu 50% und mehr an Energie eingespart werden k¨onnen.[FPSS01] Die Reduktion des Energiebedarfs durch verminderte Datengenauigkeit ist ebenfalls eine interessante M¨oglichkeit. Zum Beispiel ist es in manchen F¨allen nicht st¨orend , die Farbinformationen bei einem Video wegzulassen. Derartige M¨oglichkeiten wurden in Form einer Studie am Institut f¨ ur technische Informatik an der TU–Graz untersucht. Dabei wurden zuerst die gew¨ahlten Applikationen getrennt untersucht und im weiteren die Effekte bei gleichzeitigem laufen. Bei der Spracherkennungsanwendung kann durch ein eingeschr¨anktes Vokabular, ein einfacheres Spracherkennungsmodell und Remote Recognition eine Energieeinsparung von bis zu 60% erreicht werden. Beim Remoteverfahren wird am Client ein Wort erfasst und dieses dann zum Server zur Auswertung gesandt und das Resultat wiederum dem Client u ¨bergeben. Bei der MapView–Anwendung wurde versucht, durch das weglassen von Detail–Informationen und Detail–Darstellungen sowie einem verwendeten Powermanagement (Disk im Standby), Energie einzusparen. Hier konnte eine Einsparung von bis zu 66% erreicht werden. Einen wesentlichen Unterschied macht auch die Betrachtungsdauer des Users. Durch Powermanagement und JPEG–Kompresion konnten beim Web–Browser der Verbrauch bis zu 26% reduziert werden. ¨ Beim Uberspielen und Darstellen eines Video in verschiedenen Encoding–Qualit¨aten wur-

KAPITEL 3. WEARABLE COMPUTING

46

de schließlich bei einem Video in mittlerer Qualit¨at, durch Powermanagement und reduzierter Fenstergr¨oße eine Einsparung von 30% m¨oglich. Die Resultate zeigen also ein zum Teil doch erhebliches Einsparungspotential. Da diese Werte unter bestimmten Voraussetzungen im Labor entstanden, ist das Ergebnis der Verringerung der Datengenauigkeit bei Verwendung eines Wearable Computer Systems zu hinterfragen. Bei gewissen Umgebungsbedingungen wird man auf eine gewisse Datengenauigkeit nicht verzichten k¨onnen, wie zum Beispiel bei der Spracherkennung. Generell ist zu sagen, dass die gleichzeitige Applikationsausf¨ uhrung das Einsparungpotentiale verringert. [FPSS01] Die interne, vom Stromnetz unabh¨angige, Energieversorgung kann durch Batterien, Akkus, solarzellen oder Brennstoffzellen erfolgen.

3.4.1

Energiespeicher

Akkumulatoren verleihen mobilen Ger¨aten eine Unabh¨angigkeit vom Stromnetz. Die Gebrauchsdauer verringert sich pro Aufladung stetig gegen¨ uber Batterien der gleichen Gr¨oße. Am meisten Verbreitete Akkus sind der Nickel–Cadmium (NiCad), Nickel–Metall–Hydrid (NiMH) und die Lithium-Ionen Akkus. Der Nachteil von Nickel–Cadmium Akkus ist der Memory–Effekt bei unvollst¨andig entladenen Akkus. Das bedeutet, dass die Akkus sich merken, wie weit sie entladen wurden und beim n¨achsten Einsatz sich trotz kompletter Aufladung ihre Gebrauchsdauer verringert. Sie sollten deshalb immer ganz entladen werden, wenn dies m¨oglich ist. Man kann diese bis zu 1000 mal wiederaufladen. Nickel–Metal-Hydrid Akkus haben pro Kilogramm eine 50% h¨ohere Leistungsf¨ahigkeit als NiCad Akkus. Sie sind etwa doppelt so teuer als NiCad Akkus, haben daf¨ ur eine 50% l¨angere Gebrauchsdauer und auch keinen Memory–Effekt. Lithium–Ionen Akkus haben eine noch h¨ohere Energiedichte (bis 15% pro Kilogramm u ¨ber NiMH Akkus) und sind dabei noch sehr leicht. Sie haben ebenfalls keinen Memory– Effekt sind jedoch wesentlich teurer als NiMH Akkus. Verwendet werden sie vor allem in Handys und PDAs. Die Lithium–Polymer Variante ist durch die Bauweise aus Kunststoff (Polymer) variabel formbar. Somit kann bei mobilen Ger¨aten eine kompaktere Bauforme erzielt werden. Der Nachteil steckt in der Vielzahl an unterschiedlichen Akkuformen, dadurch werden diese Akkus teurer als Serienprodukte.

3.4.2

Energieerzeugung und Energieverbrauch

Es wird intensiv versucht, auch an nicht ganz so praktischen Methoden wie der Energieerzeugung durch Atem- oder Blutdruck, durch K¨orperw¨arme, sowie Finger– und Gliederbewegung zu forschen. Laptops und PDAs sind durch ihre Batteriekapazit¨at in ihrer Betriebsdauer sehr limitiert. Es gibt f¨ ur derartige Energieverbraucher auch keine alternative Energieerzeugung, um einen l¨angeren Betrieb zu gew¨ahrleisten. Durch neue Technologien werden Ger¨ate mit immer geringeren Energiebedarf entwickelt und im gleichen Moment werden die Energiequellen immer leistungsf¨ahiger. Wenn der Verbrauch niedrig genug

KAPITEL 3. WEARABLE COMPUTING

47

ist, kann man durch alternative Energieerzeugung eine ununterbrochene Versorgung eines Wearable Computer Systems erm¨oglichen. Folgende Tabelle 3.1 zeigt verschiedene allt¨agliche Energiequellen und den Energieverbrauch herk¨ommlicher Computerger¨ate.[Sta00] Energie Quellen AA Alkali Batterie: 104 J Camcorder Batterie: 105 J Ein Liter Treibstoff: 107 J Kalorien: 4.19 J (Di¨at) Kalorien: 4190 J Durchschnitt bei einer Di¨at: 1.05 x 107 J

Computer Energieverbrauch Desktop (ohne Monitor): 102 W Notebook: 10 W Embedded CPU Board: 1 W Niedrigenergie Mikrocontroller Chip: 10−3 W Durchschnittlicher Verbrauch u ¨ber 24 Stunden: 121 W

Tabelle 3.1: Werte von herk¨ommlichen Energiequellen und dem Energieverbrauch einzelner Rechner.

Bei der Energieerzeugung durch K¨orperw¨arme spielt die Umgebungstemperatur eine wesentliche Rolle. Bei 20 Grad kann zum Beispiel eine Umwandlungs–Effizienz von 5,5%, bei 27 Grad nur 3,2% erreicht werden. Die m¨ogliche Energieausbeute liegt beim Sitzen etwa bei 3–5 Watt. Tabelle 3.2 zeigt den Energieverbrauch bei verschiedenen Aktivit¨aten einer Person.[Sta00] Activity Kilocal/hr sleeping 70 lying quietly 80 sitting 100 standing at ease 110 conversation 110 eating meal 110 strolling 140 playing violin or piano 140 housekeeping 150 carpentry 230 hiking 4 mph 350 swimming 500 mountain climbing 600 long distance run 900 sprinting 1400

Watts 81 93 116 128 128 128 163 163 175 268 407 582 698 1048 1630

Tabelle 3.2: Energieverbrauch bei verschiedenen Aktivit¨aten.

Untersucht wird auch die Energiegewinnung durch das Atmen, wo man jedoch nur sehr bescheidene Ergebnisse erzielen kann. Mehr als etwa 0,5 Watt scheint hier nicht m¨oglich zu sein. Um etwa selbstversorgende, medizinische Sensoren zu betreiben, denkt man an die Energiegewinnung durch den Blutdruck. Wahrscheinlich ein schwieriges aber durchaus denkbares Unterfangen.

KAPITEL 3. WEARABLE COMPUTING

48

Die maximale Energieerzeugung einer Armbewegung betr¨agt 60 Watt. In der Energieerzeugung durch K¨orperbewegung liegt wohl die gr¨oßte Chance ein selbstversorgendes System zu verwirklichen. Eine innovative M¨oglichkeit die Bewegungsenergie zu nutzen, ist die Verwendung von piezoelektrischen Materialien. Eine derartige Kleidung w¨are nicht viel schwerer als herk¨ommliche Kleidung. Entsprechend flexible Materialien haben zwar eine noch geringe Effizienz (11%), man kann jedoch gespannt auf die neuen Entwicklungen in diesem Bereich warten. Das Gehen ist eine der Aktivit¨aten mit dem gr¨oßten Energieaufwand. Auch hier k¨onnen piezoelektrische Materialien zum Einsatz kommen die bereits 5 Watt an Energie beim normalen Gehen erzeugen k¨onnen. Durch die Verwendung von Rotationsgeneratoren verspricht man sich eine Energiegewinnung von bis zu 10 Watt an verf¨ ugbarer Energie. Abbildung 3.2 zeigt eine Skizze mit einem in einen Schuh eingebauten Piezzoelement und einem Rotationsgenerator.

Abbildung 3.2: Schuh mit eingebauten Piezzoelement und Rotationsgenerator als Energieerzeuger.

Eine weitere M¨oglichkeit ist die Nutzung des Luftwiederstandes w¨ahrend des Gehens. Da jedoch die Effizienz bei maximal 3% liegt, im Vergleich zur zuvor erw¨ahnten M¨oglichkeit, die eine Effizienz von 50% erreicht, ist die Sinnhaftigkeit dieser Energiequelle wohl sehr in Frage gestellt. Alle angesprochenen Energiequellen des menschlichen K¨orpers sind in Abbildung 3.3 zusammengefasst. Energieerzeugung durch Fingerbewegung (Tastendruck) wird ebenso wie die Energiegewinnung durch ¨offnen und schließen eines Laptopdeckels als m¨ogliche Energiequelle untersucht. An Brennstoffzellen auf Methanolbasis arbeitet zum Beispiel Motorola. Nach Meinung der Forscher soll diese Form der Energiequelle bis 2005 Marktreife erreichen und das 10–fache an Energie liefern wie ein wiederaufladbarer Akku mit gleicher Gr¨oße. Sie haben außerdem den Vorteil einer geringen Abmessung und die integrierte Elektronik erm¨oglicht auch eine Erh¨ohung der Ausgangsspannung. Somit kann zum Beispiel ein Notebook mit nur einer Zelle betrieben werden.

KAPITEL 3. WEARABLE COMPUTING

49

¨ Abbildung 3.3: K¨orperenergiequellen im Uberblick. Die Gesamtenergie je Aktion ist in Klammern angegeben.

3.5

Sto ¨rfaktoren

St¨orfaktoren spielen hier nat¨ urlich auch eine große Rolle. Einerseits d¨ urfen sich die viele Ger¨ate die sich auf engsten Raum befinden, nicht gegenseitig st¨oren bzw. Dritte nicht st¨oren und auch nicht von ihnen gest¨ort werden. Andererseits m¨ ussen sie gegen ¨außere Angriffe gesch¨ utzt sein und gleichzeitig einen sicheren Weg zur Kommunikation nach außen besitzen. EMV (Elektromagnetische Vertr¨aglichkeit) und Datensicherheit spielen hier also ein wesentliche Rolle. Auch darf die Ger¨atschaft dem User nicht unangenehm auffallen, oder noch besser, er sollte sie gar nicht bemerken. Das bedeutet, die Kleidung muß genau so leicht sein wie normale Kleidung, genauso strapazierf¨ahig und funktionell. Und nat¨ urlich muß sie auch noch gut aussehen (siehe Abbildung 3.4). Dar¨ uber hinaus kann auch das Wechseln oder Aufladen von leeren Akkus sehr st¨orend sein. Um dies zu verhindern, muss der Energieverbrauch sehr niedrig gehalten werden und alternativen wie Solartechnik, Energiegewinnung durch K¨orperbewegung oder K¨orpertemperatur eingesetzt werden. Oft werden Kleidungsst¨ ucke unter Freunden oder Geschwistern getauscht. Es muss also

KAPITEL 3. WEARABLE COMPUTING

50

Abbildung 3.4: Designermodell eines Kleidungsst¨ uckes und eines HMD

auch der Tr¨ager erkannt werden, um pers¨onliche Informationen nicht an falsche Personen weiterzugeben oder personenbezogene Daten richtig auszuwerten. Es gibt situationsbezogene Funktionalit¨aten die dem User zur Verf¨ ugung stehen m¨ ussen, ohne das er selbst etwas daf¨ ur tun muss. Beim Sport zum Beispiel eine genaue Herz– Kreislauf–Analyse f¨ ur eine sp¨atere Auswertung der Trainingsdaten. Bei einem Gesch¨aftsgespr¨ach die Aufzeichnung der Fakten oder des ganzen Gespr¨achsinhaltes mit Namen und Bild der beteiligten Personen. Oder beim Betreten des Flughafengeb¨audes die virtuelle Navigation zum richtigen Gateway. Alle diese Dinge m¨ ussen dem Benutzer ohne sein Zutun zur Verf¨ ugung stehen. Ortsbezogene Anwendungen m¨ ussen immer u ugen, um rich¨ber genaue Positionsdaten verf¨ tig funktionieren zu k¨onnen. Nat¨ urlich ist es von der jeweiligen Anwendung abh¨angig wie genau die Positionsdaten sein m¨ ussen, aber es gibt noch kein System das immer und u ¨berall die exakten Daten liefert. Somit ist ein gut funktionierendes Zusammenspiel verschiedener Systeme notwendig, um eine ungest¨orte Funktionst¨ uchtigkeit zu gew¨ahrleisten.

3.6

Projekte im Wearable Computing

Die Vision vom ”computing anytime, anything, and anywhere” wird durch die Miniaturisierung immer leistungsf¨ahigerer mobiler Computersysteme zunehmend greifbar. Aber ein mobiler Computer alleine l¨ost noch keine Probleme. Der Nutzer und seine Anwendungsprobleme bestimmen im Wesentlichen jene Anforderungen die an erfolgreiche, mobile L¨osungen gestellt werden. In diesem Sinn werden Entwicklungen vorangetrieben, die eine Unterst¨ utzung mobiler T¨atigkeiten und Arbeitsprozesse erm¨oglichen, f¨ ur die der Einsatz herk¨ommlicher Informations– und Kommunikationstechnologien bisher kaum m¨oglich oder nicht wirtschaftlich war, und die in der Gesamtbetrachtung Anwender und Anwendung in den Vordergrund stellen. Die Anwendungsbereiche die man dabei betrachtet, erstrecken sich von industriellen Anwendungen (z.B. Produktion, Inbetriebnahme, Inspektion, Wartung) bis hin zu Anwendungen, die Massenmarkttauglichkeit besitzen (z.B.

KAPITEL 3. WEARABLE COMPUTING

51

neuartige Kommunikationskonzepte f¨ ur den mobilen Informationsaustausch). Zielrichtung ist die Unterst¨ utzung von T¨atigkeiten, die nicht am Schreibtisch erfolgen, sondern notwendigerweise in der realen, gegenst¨andlichen Welt angesiedelt sind, an verschiedenen Orten oder in der Bewegung durchgef¨ uhrt werden und die volle Aufmerksamkeit des Benutzers erfordern.

3.6.1

Wearable im Tourismus

Die Tourismusbranche hat f¨ ur sich schon l¨angst das Internet als Vertriebsplattform entdeckt. Auch viele Reisende nutzen dieses Medium, um sich u ¨ber Reisem¨oglichkeiten zu informieren, um Reisen zu buchen, um sich einen Eindruck vom Reiseziel zu machen oder sogar, um zu Hause am PC verschiedene Aktivit¨aten f¨ ur den Aufenthalt zu planen und vorzubereiten. Doch nicht jede Reise wird so vorbereitet und die meisten Urlauber entscheiden sich erst vor Ort und h¨aufig ganz spontan f¨ ur das t¨agliche Programm. In dieser Situation m¨ochte niemand allgemeine Reiseinformationen haben, sondern spezielle ortsbezogene Angebote, die m¨oglichst genau den eigenen Vorlieben und M¨oglichkeiten entsprechen. Unter dem Stichwort ”Location Based Services” wird an Angeboten gearbeitet, die neben ortsbasierten Informationen insbesondere auch ortsbasierte Dienste wie Reservierungen, Kartenvorbestellungen usw. anbieten. Kommerziell umgesetzt werden derartige Services zum Teil bereits f¨ ur den Zugriff per Handy und WAP, doch die Informationsdarstellung und die Interaktion mit diesem Ger¨at ist sehr eingeschr¨ankt, so dass hier noch Verbesserungen erforderlich und auch zu erwarten sind. Die Vorlieben und Interessen von Besucher einer WWW–Seite beispielsweise werden heute bereits ermittelt. Eine andere w¨ unschenswerte Funktion, die f¨ ur Touristen u ¨beraus wichtig ist und die ein mobiles, tragbares Computersystem erf¨ ullen kann, ist die Orientierungshilfe in einem unbekannten Gebiet. Fahrzeuge werden heute standardm¨aßig, zumindest bei einigen Marken, mit einem Navigationssystem ausgestattet, das den Fahrer durch unbekannte Straßen und unter Ber¨ ucksichtung der aktuellen Verkehrssituation schnell zu ihrem Ziel lotst. Ein solches System ist auch f¨ ur Fußg¨anger n¨ utzlich und zwar sowohl im Freien als auch in Geb¨auden. Technisch ist zur L¨osung dieser Problemstellung die Integration verschiedener geografischer Positionsbestimmungssysteme in ein umfassenderes Modell erforderlich sowie die Entwicklung einer dem jeweils eingesetzten Endger¨at angemessenen Informationspr¨asentation und eines m¨oglichst intuitiven Interaktionskonzepts. ¨ Uber die reine Navigations– und Orientierungshilfe hinaus k¨onnen Wearable Computer sehr gut als ”mobile Informationssysteme” eingesetzt werden, die speziell auf den individuellen Benutzer hin optimierte, orts- und kontextbezogene Informationen bereitstellen bzw. aktiv anbieten. Touristen k¨onnen multimediale Informationen als Text, Bild und Video und insbesondere in dreidimensionaler grafischer Form dargeboten werden und sollen mit AR–Technologie direkt in ihr Sichtfeld eingeblendet werden. M¨ogliche Anwendungssysteme sind Campus–Informationssysteme, virtueller Reise– bzw. Museumsf¨ uhrer und so weiter. Die technologischen Herausforderungen sind groß, insbesondere die AR– ¨ Registrierung, das heißt die punktgenaue visuelle Uberlagerung der Blickrichtung des Benutzers mit 3D–Informationen in Echtzeit, stellt ein noch nicht gel¨ostes Problem dar, an dem intensiv gearbeitet wird. F¨ ur den kommerziellen Einsatz muss nat¨ urlich gen¨ ugend Content bereitgestellt werden. Außerdem m¨ ussen die bereitgestellten Informationen thematisch und ortsbezogen (Location Aware) so miteinander in Bezug gebracht werden, dass

KAPITEL 3. WEARABLE COMPUTING

52

sie f¨ ur jeden Benutzer entsprechend seines Profils gefiltert dargeboten werden k¨onnen. Der Begriff ”Location–Awareness” kann als Positionsbewußtsein u ¨bersetzt werden und damit als Sammelbegriff f¨ ur alle Systeme betrachtet werden, die sich ihrer Position in der realen Welt bewußt sind. Ein ”Location–Aware” System ist also in der Lage seine Position in der realen Welt zu ermitteln und entsprechend der jeweiligen Position zu agieren. Der Begriff ”Location–Service” bezeichnet ein besonderes Location–Aware System, das Informationen u ugung stellt. ¨ber die physische Position von georteten Objekten zur Verf¨ Geortete Objekte beinhalten die beim System angemeldeten mobilen Objekte, deren Position mit Hilfe von Ortungssytemen bestimmt werden k¨onnen und Objekte mit festen, bekannten Positionen. Beispiele f¨ ur solche Objekte sind Menschen, Computer, Telefone und Fahrzeuge. Ein ”Location–Service” bietet zwei grundlegende Funktionen an. Er erstellt eine Liste von allen an einer bestimmten Position georteten Objekte und er liefert die bekannte Position eines georteten Objektes. Auf diese Dienste aufbauend k¨onnen auf einfache Weise eine Vielzahl an Location–Aware Anwendungen entwickelt werden. Die Grundlage hinsichtlich der Funktionalit¨at und der Struktur eines ”Location–Service” bildet das verwendete Modell f¨ ur Positionen der physischen Welt. Bei der Entwicklung eines ”Location–Service” sind viele Aspekte zu ber¨ ucksichtigen. Aus diesem Grund muss man ein ”Location–Service” formal spezifizieren, um dessen Design und Realisierung zu erleichtern. Zu diesem Zwecke werden verschiedene Positionierungsmodelle betrachtet, wobei die Hauptunterscheidung in ”symbolische” und ”geometrische” Modelle f¨ ur Positionsangaben erfolgt. Ein symbolisches Modell wird aus f¨ ur den Menschen lesbaren Bezeichnern gebildet wie etwa ”Marktplatz.Graz.Austria” w¨ahrend ein geometrisches Modell auf Erdvermessungen beruht wie beispielsweise geographische Koordinatensysteme. Aus dieser Betrachtung folgt der Schluß, dass nur ein hierachisch angeordnetes, kombiniertes Modell allen geforderten Anforderungen an ein Positionierungsmodell gen¨ ugt. Ein weiterer wesentlicher Aspekt im Zusammenhang mit einem ”Location–Service” ist die Sicherheit der Benutzer hinsichtlich ihrer Privatsph¨are. Der Hintergrund dieser Problematik ist der verst¨andliche Wunsch vieler Menschen, daß die Verfolgung jeder ihrer Schritte durch beliebige andere Personen verhindert werden muß. Zu diesem Zwecke kann man zum Beispiel den Zugriff durch drei Ebenen beschr¨anken um so eine m¨oglichst feine Unterteilung der Zugriffsrechte zu erzielen. Die erste Ebene erlaubt die Einschr¨ankung des Zugriffs von Personen auf andere Personen wenn diese sich in bestimmten Gebieten aufhalten. Die zweite Ebene erlaubt die Beschr¨ankung des Details der Sichtbarkeit indem exakte Positionsangaben durch ungenauere Positionen ersetzt werden. Die Einschr¨ankung in welcher Form ein Objekt innerhalb eines Gebietes f¨ ur Personen sichtbar sein soll ist anhand der dritten Ebene spezifizierbar.[Leo98] Die Grundlage f¨ ur location–aware Applikationen ist die M¨oglichkeit zur Bestimmung der Positionen von mobilen Objekten wie beispielsweise von Personen, Fahrzeugen und ¨ahnlichem. Dies ist in der Regel nur m¨oglich mit Hilfe eines Ortungssystems, wie es auch f¨ ur andere Aufgaben wie zum Beispiel die Schiffs- und Flugzeugnavigation verwendet wird. Aus der F¨ ulle der vorhandenen Systeme muß entsprechend den Anforderungen einer Location–Aware Applikation das am besten geeignete, oder eine Kombination mehrerer Systeme ausgew¨ahlt werden. Ein Idealsystem, das allen nachstehend aufgelisteten Anforderungen gleichermaßen gerecht wird, ist leider nicht verf¨ ugbar.

KAPITEL 3. WEARABLE COMPUTING

53

ˆ dreidimensionale Ortung (z. B. geographische L¨ ange und Breite, H¨ohe) ˆ weltweite Verf¨ ugbarkeit bei ann¨ahernd gleich hoher Genauigkeit ˆ Unabh¨ angigkeit der Nutzung von Ort und Zeit (z.B. innerhalb und außerhalb von Geb¨auden) ˆ unbegrenzte Zahl der gleichzeitigen Nutzer ˆ hohe Genauigkeit der Standortbestimmung (in der Gr¨ oßenordnung ± 1 m oder besser) ˆ kontinuierliche, schnelle und automatische Lieferung des Ortungsergebnisses ˆ keine Beeintr¨ achtigungen der Mobilit¨at ˆ kosteng¨ unstig auf der Seite der Nutzer

Es wird zwischen folgenden Ortungssystemen unterschieden. ˆ Satellitenbasierte Ortungssysteme (GLONASS, NAVSTAR–GPS, GALLILEO, Differential– GPS (DGPS),. . . ) ˆ Bodengest¨ utzte Funk–Ortungssysteme ˆ Zellenbasierte Ortungssysteme (Zellulare Funknetzwerke (z.B. GSM), Zellulare Infrarot– Netzwerke) ˆ Relative Ortungssysteme ˆ Beobachtung fester Computerarbeitspl¨ atze

Die f¨ ur satellitenbasierte Ortungsssysteme verwendeten Prinzipien werden neben anderen auch f¨ ur bodengest¨ utzte Funk–Ortungssysteme verwendet. Diese werden derzeit haupts¨achlich f¨ ur die zivile See– und Luftfahrt eingesetzt und besitzen in diesen Ausf¨ uhrungen bei der Positionsbestimmung eine Ungenauigkeit zwischen einigen hundert Metern bis zu einigen Kilometern. Diese Positionsgenauigkeit ist f¨ ur Location–Aware Anwendungen in der Regel ungen¨ ugend. Im Gegensatz zu den beiden ersten Ortungssystemen, die kontinuierliche Positionsangaben in Form von Werten liefern, melden zellenbasierte Systeme diskrete Positionen in der Regel in Form von Zellenbezeichnern. Ein Zellenbezeichner kennzeichnet innerhalb des Systems eindeutig eine Zelle, die einem bestimmten Gebiet der realen Welt zugeordnet ist (siehe Abbildung 3.5). Der große Nachteil zellenorientierter Modelle ist das Fehlen von Beziehungen zwischen den verschiedenen Zellen bzw. Zonen. Eine naheliegende M¨oglichkeit Zellen bzw. abstrakte Gebiete in Relation zu setzen ist die hierarchische Ordnung entsprechend den geographischen Positionen und Gr¨oßen der Gebiete. Das Ergebnis ist eine hierarchische Struktur vergleichbar mit Dom¨anen. Abbildung 3.6 zeigt einen Teil einer solchen Struktur f¨ ur das in Abbildung 3.5 enthaltene Beispiel.

KAPITEL 3. WEARABLE COMPUTING

54

Abbildung 3.5: Ausschnitt eines Geb¨audefl¨ ugels mit verschiedenen Sensoren bzw. Zellen

Abbildung 3.6: Teil einer hierarchischen Struktur f¨ ur Gebiete

Die Verwendbarkeit von Infrarot zur Daten¨ ubertragung beschr¨ankt sich auf kurze Entfernungen, wie sie typischerweise nur innerhalb von Geb¨auden vorkommen. F¨ ur die Nutzung innerhalb von Geb¨auden spricht allerdings, daß Infrarot–Netzwerke keine der gew¨ohnlich verwendeten und damit kostbaren Frequenzen des elektromagnetischen Frequenzspektrums ben¨otigen. Bei zellularen Funknetzwerken ist das von ihnen u ¨berdeckte Gebiet, ¨ahnlich wie bei den zellularen Infrarot-Netzwerken, in Zellen aufgeteilt. Die Position eines Nutzers ist die Zelle, in der er sich zur Zeit befindet. Die Ausdehnung dieser Zellen ist aber im Vergleich zu den bei zellularen Infrarotnetzwerken durch die gr¨oßere Reichweite zumeist deutlich gr¨oßer, so daß sie auch f¨ ur eine Verwendung außerhalb von Geb¨auden in Frage kommen. Allerdings sinkt durch die gr¨oßere Ausdehnung der Zellen die Genauigkeit, mit der die Position eines Benutzers bestimmt werden kann, so daß die resultierenden Positionsbestimmungen unter Umst¨anden zu ungenau werden. Eine Steigerung der Positionsgenauigkeit ist unter Umst¨anden bei sich u ¨berlappenden Zellen durch den Empfang

KAPITEL 3. WEARABLE COMPUTING

55

der Signale mehrerer Zellen in Verbindung mit der Messung der Signalst¨arken m¨oglich. Die bisher betrachteten Systeme k¨onnten auch als absolute Ortungssysteme bezeichnet werden. Sie bestimmen die aktuelle Position unabh¨agig von vorherigen Positionen. Dem gegen¨ uber ben¨otigen relative Ortungssysteme, auch als bordautonome Systeme bezeichnet, die vorherige Position zur Bestimmung der neuen Position mit Hilfe der von ihnen gemessenen Positionsver¨anderungen. Diese Positionsver¨anderungen setzen sich gew¨ohnlich aus Geschwindigkeit, Richtung oder der Strecke zusammen, und werden zum Beispiel von Tachometern, Kompassen, H¨ohenmessern und Tr¨agheitsnavigationssensoren ermittelt. Das große Problem dieser Systeme ist die Tatsache, daß sich die unvermeidlich auftretenden Fehler summieren und daraus resultierend die Positionsbestimmungen zunehmend ungenauer werden. Aus diesem Grunde werden relative Ortungssysteme in der Regel nur in Kombination bzw. als Erg¨anzung von absoluten Ortungssystemen verwendet. Der Vorteil dieser kombinierten Systeme ist darin zu sehen, daß bei kurzzeitiger Nichtverf¨ ugbarkeit des absoluten Systems die Positionsbestimmung mit Hilfe des relativen Systems fortgef¨ uhrt werden kann. Ist ein Nutzer wenig mobil, sondern befindet sich die meiste Zeit an fest stehenden Computerarbeitspl¨atzen, ist eventuell u ¨berhaupt keine spezielle Hardware zur Bestimmung der Position n¨otig, wie dies in den zuvor erw¨ahnten Systemen schon der Fall ist. F¨ ur die Zuordnung des Nutzers zu einer bestimmten Position, seinem aktuellen Arbeitsplatz, wird nur eine Identifikation des Nutzers durch den Arbeitsplatz ben¨otigt. Dies geschieht bei vielen Systemen bereits durch die Authentifikation des Nutzers durch Benutzername und Paßwort. Es reicht also v¨ollig aus, den Zugang zu Computerarbeitspl¨atzen zu beobachten und die jeweils vorhandenen Nutzer mit den festen Positionen der Arbeitspl¨atze zu verkn¨ upfen. Wearable Computing Systeme werden unter anderem dadurch charakterisiert, dass sie proaktiv und immer im Wahrnehmungsbereich der Benutzer sind. F¨ ur den Bereich Tourismus bedeutet diese Eigenschaft, dass der Benutzer sich seine Informationen nicht immer selbst beschaffen muss, sondern systemgesteuert angeboten bekommen kann. Ein proaktives Computersystem im Tourismus muss die ortsbezogenen Angebote mit dem Profil der Benutzer abgleichen und weitere Kontexte (z.B. den aktuellen Aufenthaltsort, die Uhrzeit, die bisherigen Aktivit¨aten usw.) mit einbeziehen, um sinnvolle Empfehlungen geben zu k¨onnen. Context–Awareness und Benutzermodellierung (user modeling) sind erforderlich, um diese Anforderungen zu erf¨ ullen. Außerdem muss noch untersucht werden, wie Proaktivit¨at und die daraus resultierende Interaktion zu gestalten ist. Von einer anderen Perspektive aus gesehen kann ein Wearable Computer, der mit einer Videokamera und anderen Aufzeichnungsm¨oglichkeiten ausgestattet ist, auch als ”Reisetagebuch” verwendet werden und so dem Benutzer zur Erinnerungsunterst¨ utzung dienen. Kommerziell verf¨ ugbar sind bisher nur Wearable Online–Berichterstattungssysteme (z.B. von ART+COM), die allerdings von der erforderlichen Hardwareausstattung her f¨ ur Touristen bzw. f¨ ur den pers¨onlichen Gebrauch noch ungeeignet sind. In der Folge werden Forschungsprojekte und Prototypen beschrieben, die sich mit der Entwicklung von mobilen Informationssystemen befassen.

KAPITEL 3. WEARABLE COMPUTING

56

Cyberguide Im Rahmen einer 1995 am College of Computing in Atlanta gegr¨ undeten Projektgruppe namens ”Furture Computing Environments (FCE) Group” wird versucht, das Aussehen von zuk¨ unftigen Anwendungen f¨ ur mobile Umgebungen vorherzusagen. Sie vertreten dabei die Meinung, daß zuk¨ unftige mobile Rechnerumgebungen Kontextinformationen wie beispielsweise die jeweilige Position, f¨ ur ein gr¨oßeres Spektrum an Diensten f¨ ur den Benutzer ben¨otigen. Zur Untersuchung dieser These wurde im Rahmen des Projektes Cyberguide eine Reihe von Prototypen eines mobilen positionsbewußten Routenf¨ uhrers f¨ ur Touristen + entwickelt [AAH 96]. Diese Prototypen verwenden die aktuellen und die vorherigen Positionen um ein H¨ochstmaß an Funktionalit¨at entsprechend eines richtigen Routenf¨ uhrers zu bieten. Diese Funktionalit¨at setzt sich aus vier Bereichen zusammen, die bei der den Prototypen gemeinsamen Architektur als vier gr¨oßtenteils unabh¨angige Teile entworfen wurden. Der erste Teil dient der Positionsbestimmung eines Benutzers durch die Verwendung von Sensoren verschiedener Ortungssysteme. F¨ ur die Darstellung von Umgebungskarten mit einer Markierung der jeweiligen Position des Benutzers ist der zweite Teil der Prototypen zust¨andig. Die Bereitstellung von Informationen zu ausgew¨ahlten Objekten der realen Welt aufgrund von Benutzeranfragen wird durch den dritten Teil erledigt. Der letzte Teil dient der Kommunikation zwischen den sich in einem bestimmten Gel¨ande aufhaltenden Personen mit Hilfe von Nachrichten. ArcheoGuide – Virtueller Reisefu ¨ hrer F¨ ur Touristen ist es oft schwer, sich den urspr¨ unglichen Zustand von zerst¨orten oder besch¨adigten Baudenkm¨alern vorzustellen. Ein neues Touristen–Informationssystem soll virtuell zeigen, wie aus Ruinen wieder pr¨achtige Bauwerke entstehen. (Siehe Abbildung 3.7) Am Fraunhofer Institut f¨ ur graphische Datenverarbeitung Darmstadt hat man unter dem Projektnamen ArcheoGuide ein sogenanntes ”geographisches Touristen–Informationssystem” entwickelt, welches virtuelle Reisen in die Vergangenheit wichtiger Baudenkm¨aler erm¨oglicht.5

Abbildung 3.7: Darstellung eines virtuellen Denkmals in der realen Umgebung 5

http://www.igd.fhg.de/igd-a4/projects/archeoguide/ http://archeoguide.intranet.gr/

KAPITEL 3. WEARABLE COMPUTING

57

Das Touristen-Informationssystem zeigt den fr¨ uheren Zustand zerst¨orter oder besch¨adigter Geb¨aude, aber auch standortbezogene aktuelle Informationen. Es ist zum Beispiel ein Modell des Heidelberger Schlosses verf¨ ugbar. Die erste Version des Systems besteht aus einem kleinen und leistungsstarken Rechner, den sich Touristen am G¨ urtel festschnallen k¨onnen. Auf den Kopf setzen sie ein ”Headset” mit Kamera, Monitor und Mikrofon. Die Darstellung des virtuellen Geb¨audes erfolgt in 3D in Abh¨angigkeit vom Blickwinkel des ¨ Benutzers. Uber die Kamera erkennt das System, wo der Nutzer gerade hinschaut und liefert Informationen zu diesem Blickwinkel. Auf dem Monitor erstehen die Bauwerke virtuell wieder auf. Mittels halbdurchl¨assigen Display u ¨berlagert das computergenerierte Bild die reale Sicht, ohne sie vollst¨andig zu verdecken. Eine Sprachsteuerung des Systems soll m¨oglich sein. Auch ein Routenplaner ist als Zubeh¨or geplant, genauso wie das Angebot, ein Hotelzimmer zu reservieren. Der Aufbau des Archeoguide ist in Abbildung 3.8 zu sehen.

Abbildung 3.8: Aufbau des Archeoguide–Systems

Die neueste Hardware stammt von der Firma N–Vision und ist eine Art Fernglas. Sie ist handlicher als die erste Version, denn der Nutzer muss kein Gestell mehr aufsetzen. Er h¨alt sich das Ger¨at bei Bedarf vor die Augen, sonst h¨angt der virtuelle F¨ uhrer um den Hals. Auch zu dieser Ausf¨ uhrung geh¨ort ein kleiner Rechner f¨ ur den G¨ urtel. Hardware f¨ ur derartige Anwendungen wird immer handlicher und wird bald einmal in die Hosentasche passen. Weitere a¨hnliche Projekte kann man auf der Projektseite des Frauenhofer Institut f¨ ur

KAPITEL 3. WEARABLE COMPUTING

58

graphische Datenverarbeitung finden.6 Deep Map Das European Media Lab (EML), Heidelberg, und internationale Universit¨aten und Forschungsgruppen entwickelten zusammen den sogenannten Deep Map.7 Das System fungiert als personalisierter, virtueller Stadtf¨ uhrer mit Navigationshilfe, gef¨ uhrtem Rundgang und Hintergrundinformationen zu den besuchten historischen Pl¨atzen. Der Person, die es benutzt, kann es einen pers¨onlich zugeschnittenen Rundgang bieten. Der Tourist kann dem System gesprochene Anweisungen geben und weitreichende Fragen stellen, welche anhand der Informationen aus der enthaltenen multimedialen Datenbank und der implementierten k¨ unstlichen Intelligenz beantwortet werden. Die Ausgabe erfolgt u ber gesprochenen oder visuell angezeigten Text, Bilder oder Grafiken (mul¨ timedial und der Realit¨at u ¨berlagernd). Die Sprachsteuerung bietet also eine intuitive Interaktion und der Benutzer kann somit die Vor–Ort–Simulationen des Systems steuern. Ferner besitzt Deep Map eine umfangreiche historische Datenbank, so dass virtuelle Zeitreisen durchgef¨ uhrt werden k¨onnen. Dar¨ uber hinaus k¨onnen mit dem umfangreichen, intelligenten Geo–Informationssystem ”Was-W¨are-Wenn”–Analysen f¨ ur die Stadtplanung vor Ort durchgef¨ uhrt werden. Es ist also eine Multimedia Datenbank, die nicht nur 3DInformationen, sondern auch umfangreiche historische und demographische Informationen gespeichert hat. Mobiles GEO-WWW Ein Projekt des Instituts f¨ ur parallele und verteilte Rechner der Universit¨at Stuttgart, Forschergruppe NEXUS.8 Es wird angenommen, dass 80% aller Informationen einen Raumbezug haben. Dieser Ortbezug soll nun in den unfangreichen ortslosen Informationsraum des WWW u ¨bertragen werden, um auch Informationen ortsbezogen zu filtern. Filterung und Bereitstellung von Informationen und Diensten anhand des aktuellen Ortsbezugs des Benutzer ist die Intention bei diesem Projekt. In diesem Projekt geht es um die Entwicklung einer Plattform f¨ ur ortsbezogene Anwendungen, die beliebigen Anwendungen Zugriff auf ein Modell der Welt bietet. Dieses Modell enth¨alt Objekte wie Geb¨aude, Straßen oder auch mobile Benutzer und ”virtuelle Litfasss¨aulen”, die als Metaphern f¨ ur ortbezogene Informationen oder Informationsdienste dienen. Sensoren ”beobachten” die reale Welt und passen das Modell laufend der realen Welt an, mittels Aktoren k¨onnen wiederum Ger¨ate auf Zustands¨anderungen des Modells reagieren. Bei der ”virtuellen Litfasss¨aule” handelt es sich einerseits um ein virtuelles Objekt, das nur als Datenstruktur in einem Rechner existiert. Andererseits sind solche Objekte realen Orten in der Stadt zugeordnet, zum Beispiel dem Hauptbahnhof, den Museen oder Hotels. Das besondere daran, es k¨onnen nicht nur Informationen abgerufen werden, sondern auch Interaktionen mit Dienstleister stattfinden. Der Zugriff auf diese r¨aumlich 6

http://www.igd.fhg.de/igd-a4/projects/ http://www.eml-development.de/ 8 http://www.nexus.uni-stuttgart.de/ 7

KAPITEL 3. WEARABLE COMPUTING

59

bezogenen Angebote erfolgt u ¨ber tragbare Computer oder intelligente Funktelefone. Der Vorteil ist hier die drastische Reduzierung der angebotenen Informationsmenge. Touring Machine Als ”Touring Machine” wird ein Campus–Informationssystem der Columbia Universit¨at, Institut f¨ ur Computer Wissenschaft, bezeichnet.9 Das Campus–Informationssystem unterst¨ utzt den Benutzer dabei, Orte, Pl¨atze und Geb¨aude auf dem Gel¨ande zu finden. Es erm¨oglicht einem, Informationen u ¨ber interessante Dinge abzufragen, zum Beispiel zu Geb¨auden, Statuen etc. . Abh¨angig von der Position und Orientierung des Benutzers wird ihr Blick auf die reale Welt mit entsprechenden textuellen Informationen u ¨berlagert. Die Eingabe der Anfragen erfolgt u ¨ber das Ausw¨ahlen von Hyperlinks (angezeigt im HMD als Flagge) mit dem Kopf (durch fixieren einer Flagge, wechselt sie ihre Darstellung, sodass der Benutzer sieht, zu welchem Thema er etwas auf dem Handheld sehen wird). F¨ ur die Men¨ uauswahl aus der HMD–Anzeige wird das Trackpad am Handheld mit einer Gestensprache benutzt. Das Display in der Hand zeigt ein anderes Bild als das HMD. Es zeigt zum Beispiel die Homepage der Fakult¨at, vor der ein Benutzer gerade steht. Es wird f¨ ur Darstellungen benutzt, die eine gute Aufl¨osung erfordern. Es gibt immer eine Korrespondenz zwischen der Anzeige im HMD und der auf dem Handheld. Das System kann auch als Orientierungshilfe verwendet werden, indem der Benutzer auf dem Handheld ein Geb¨aude w¨ahlt, das er erreichen will. Ein im HMD eingeblendeter Kompass gibt ihm dann die Richtung an, in die er gehen muss. Der Benutzer erh¨alt am richtigen Ort die richtige ausf¨ uhrliche Information, wenn er die angebotenen und visuell angezeigten Informationensquellen aktiviert. Die beiden Displays zeigen jeweils die Information, f¨ ur die sie besonders geeignet sind, das Handheld–Ger¨at zum Beispiel die hochaufl¨osenden Bilder, das HMD nur Markierungen, die die Sicht auf das reale Objekt u uhrende Informationen gibt. ¨berlagern und anzeigen, dass es weiterf¨ MARS (Mobile Augmented Reality Systems) ist ein Prototyp der Columbia Universit¨at, der aus einem Hard– und Softwaresystem besteht. Es stellt eine ortsabh¨angige Informationspr¨asentation mit multimedialer Navigationsunterst¨ utzung dar. (Siehe Abbildung 3.9) Der Computer befindet sich im Rucksack (im Prinzip kann ein beliebiger Computer eingesetzt werden). Am Kopf zu tragendes binokulares see–through 3D–Display, das mit einem Tracker zur Ermittlung der Orientierung des Kopfes des Benutzers ausgestattet ist. Ein DGPS–System wird verwendet, um die Position des Benutzers zu lokalisieren. Ein Handheld 2D–Display mit Stifteingabe, das drahtlos mit dem Rucksackcomputer verbunden ist, dient als Eingabeger¨at. Der Handheld ist auf der R¨ uckseite mit einem Trackpad ausgestattet. Eine Kamera in H¨ohe des rechten Auges zeichnet auf, was der Benutzer sieht. Das Blockschaltbild des Mars–Systems ist in Abbildung 3.10 zu sehen. Softwareseitig wurde die selbst entwickelte Plattform COTERIE eingesetzt, die ein verteiltes System ist und sich f¨ ur verschiedene Betriebssystemplattformen eignet. Ein selbstentwickelter Http–Server erg¨anzt das System. 9

http://www1.cs.columbia.edu/graphics/projects/mars/touring.html

KAPITEL 3. WEARABLE COMPUTING

60

Abbildung 3.9: MARS System im Einsatz

Mobile Journalist Workstation Ein weiteres Einsatzgebiet des MARS–Systems wird durch die Erweiterung um einen Kopfh¨orer und einer drahtlosen Vernetzung erreicht. Ortsabh¨angige, multimedial pr¨asentierte Informationen (historische und architekturbedingte) sowie eine multimediale Navigationsunterst¨ utzung helfen den mobilen Journalisten bei seiner Arbeit.10 (Siehe Abbildung 3.11) Das Campus–Informationssystem ”Touring Machine” wurde um die Pr¨asentation zus¨atzlicher multimedialer Informationen (Ton, Text, Bilder, Videos) erweitert. Die Information wird positionsabh¨angig pr¨asentiert und durch die Darstellung einer Flagge (oder eines anderen ikonographischen Labels) im computergenerierten Bild visualisiert. Diese sind mit einem Hyperlink hinterlegt und k¨onnen selektiert und damit aktiviert werden. Als Eingabemedium kann die Kopfbewegung dienen, aber auch das Trackpad und die Stifteingabe auf dem Handheld sind m¨oglich. Unterschiedliche Eingabeger¨ate erm¨oglichen also dem Benutzer, nach Belieben eine situationsabh¨angige Auswahl zu treffen. Der aktuelle Prototyp zeigt dem Benutzer ”Situated Documentaries”. Zur Zeit sind es multimediale Dokumente u ¨ber die 68er Studentenrevolution, u ¨ber das unterirdische Tunnelsystem und u uhe Geschichte des Campus der Columbia Universit¨at. Gezeigt ¨ber die fr¨ werden diese Dokumente zum Teil im HMD (Rekonstruktionen alter Geb¨aude), das heißt sie u ¨berlagern das reale Bild, oder auf dem hochaufl¨osenden Handheld (z.B. Videos). Auf dem Handheld–Ger¨at l¨auft ein eigener Web–Server, als Oberfl¨ache wird ein einfacher Browser verwendet. F¨ ur die Visualisierung eines 360Grad–Rundumbildes wird das See–Through–Display mechanisch in ein opaques Display verwandelt. Die verschiedenen Eigenschaften der Displays werden also ausgenutzt, um eine optimale Darstellung der jeweiligen Information zu erreichen. Die Datenbank mit allen Informationen ist im Rucksack–Computer gespeichert. Der Web– Browser des Handhelds kann jedoch u ¨ber eine drahtlose Verbindung auf weitere Informationen im Internet zugreifen. 10

http://www1.cs.columbia.edu/graphics/projects/mars/mjwSd.html

KAPITEL 3. WEARABLE COMPUTING

61

Abbildung 3.10: Aufbau des MARS Prototypen

Dies ist auch der Unterschied zum Projekt ”VTG”(siehe Kapitel 4) in dieser Arbeit, wo s¨amtliche Information auf einem Server liegt und dort f¨ ur die Darstellung am Client aufbereitet wird. Indoor/Outdoor Collaboration Ebenfalls von der Columbia Universit¨at stammt das Projekt ”Indoor/Outdoor Collaboration”. Dies ist eine neuerliche Erweiterung des MARS–Systems und zwar um eine multimediale und multimodale Kommunikation– und Kollaboration–M¨oglichkeit mit Experten. Die Anbindung eines mobilen AR–Systems (Augmented Reality System) an ein Indoor Multi–User AR–System war die Aufgabe dieses Projektes. Ebenfalls Verwendung finden hier die ortsabh¨angige Informationspr¨asentation sowie und die multimediale, posi¨ tionsabh¨angige, visuelle Uberlagerung der realen Welt mit virtuellen 3D-Informationen.11 (Siehe Abbildung 3.12) Das User–Interface f¨ ur Indoor/Outdoor Collaboration erm¨oglicht es, einen Benutzer der sich außerhalb der Geb¨aude mit dem mobilen AR–System bewegt, zu beobachten(¨ uberwachen) und gegebenen Falls von Experten remote zu unterst¨ utzen. Im Gegenzug kann der mobile Benutzer seine Beobachtungen den Personen drinnen berichten. F¨ ur die verschiedenen zu erwartenden Situationen und Kombinationen wurde eine Infrastruktur geschaffen, 11

http://www1.cs.columbia.edu/graphics/projects/mars/marsUIs.html

KAPITEL 3. WEARABLE COMPUTING

62

Abbildung 3.11: Der mobile Journalist mit Informationsanzeigebeispiel

die es erlaubt, auf die gleichen Informationen, mit verschiedenen Personen gleichzeitig und mit ganz unterschiedlichen Interfaces zuzugreifen. Dar¨ uber hinaus haben die verschieden ausgestatteten Benutzer unterschiedliche Aufgaben in der Kollaboration, die mit entsprechenden Programmen unterst¨ utzt werden.

Abbildung 3.12: Ansicht des Campus mit Flaggen, Information und Links, sowie einer Routenanzeige

Die MARS–Hardware wird f¨ ur das mobile AR–System um diverse andere, auch nicht– mobile Computer f¨ ur die Kooperationspartner (z.B. wearables, hand–held, stationary desktop, stationary wall–sized, stationary immersive AR) erg¨anzt. REAL REAL entstand im Rahmen des Sonderforschungsbereichs 378 ”Ressourcenadaptive Kognitive Prozesse” am Lehrstuhl von Professor Wolfgang Wahlster an der Universit¨at Saarland. Navigationshilfen auf CD–ROM und GPS–Basis aus dem Autocomputer kennt man schon l¨anger, doch nun sollen auch Fußg¨anger in den Genuss der Navigationshilfen kommen. Im Rahmen zweier Diplomarbeiten an der Saar Uni wurde im Fachbereich Informatik eines der leichtesten und kleinsten Systeme dieser Art entwickelt. Eine Navigationshilfe f¨ ur Fußg¨anger (drinnen und draußen) durch kontextabh¨angige Informationspr¨asentation ist das Thema im Projekt ”REAL”. Aufgespalten wurde dieses Projekt in die Unterprojekte

KAPITEL 3. WEARABLE COMPUTING

63

”IRREAL” (Navigation drinnen) und ”ARREAL” (Navigation draußen).12

Abbildung 3.13: Ausr¨ ustung der Navigationshilfe

Es ist in der Lage, zum Beispiel Besuchern des Saarbr¨ ucker Campus den Weg zu weisen. Die Hauptkomponenten des ARREAL–Systems sind ein leicht zu tragender Rucksack, ein Miniatur–Monitor, der an der Brille des Benutzers befestigt werden kann und eine speziell entwickelte Zweiknopf–Bedieneinheit. (Siehe Abbildung 3.13) Eine besondere Schwierigkeit bei der Unterst¨ utzung von Fußg¨angern konnte mit ARREAL u ¨berwunden werden. W¨ahrend Autos an Straßen gebunden sind, bewegen sich Fußg¨anger weitaus flexibler im Raum. Eine Besonderheit des REAL–Systems ist die Verbindung der Navigation im Freien und in Geb¨auden. W¨ahrend sich REAL im Freien auf Satelliten zur Ortsbestimmung verl¨asst, u ¨bernehmen diese Aufgabe im Geb¨aude spezielle Infrarotsender. Mit dem schlauen Reisebegleiter im Gep¨ack soll sich der Fußg¨anger k¨ unftig u ¨berall zurechtfinden, auf dem Flughafengel¨ande, im Firmenkomplex, in Innenst¨adten, egal ob er sich gerade im Freien, in einem Geb¨aude oder einem ¨offentlichen Verkehrsmittel aufh¨alt. Außerdem reagiert REAL adaptiv auf die wechselnde Benutzersituation. Das heißt es erkennt, ob es jemand eilig hat oder ob er nur gem¨ utlich umherschlendert. Das Hilfesystem passt je nach Ort und Geschwindigkeit die Art und Menge der pr¨asentierten Information automatisch an (langsam gehen ¯ausf¨ uhrliche Informationen). Neben der reinen Navigationsaufgabe unterst¨ utzt das System zum Beispiel Anfragen zu Geb¨auden in der unmittelbaren Umgebung des Benutzers. Eine einfache Zeigegeste mit dem Bedienelement auf ein Geb¨aude gen¨ ugt, um zus¨atzliche Infos abzurufen, etwa u ¨ber das Innenleben und die Funktion des Geb¨audes. 12

http://w5.cs.uni-sb.de/real/

KAPITEL 3. WEARABLE COMPUTING

3.6.2

64

Wearable Computing als Produktivit¨ atsfaktor

Der Einsatz mobiler Rechnersysteme erlaubt den Zugriff auf Planungsdaten vor Ort. Gerade bei der Inspektion in laufender Produktion ist es aus Sicherheitsgr¨ unden wichtig, dass das Instandhaltungspersonal die H¨ande frei hat um einen sicheren Halt zu finden. Aus diesem Grund konnte sich f¨ ur diese Aufgabe bisher noch keine Hardwarel¨osung durchsetzen, die eine Datenerfassung und –auswertung vor Ort realisiert. Mit der mobilen Computertechnologie besteht nun die M¨oglichkeit, auch die Datenaufnahme direkt an der Anlage wirkungsvoll zu unterst¨ utzen. Wesentliches Merkmal dieses Ansatzes ist das erheblich st¨arkere Durchdringungspotential von Informationsfunktionalit¨at, das durch die Tragbarkeit von Softwaresystemen und zus¨atzlicher intelligenter Sensorik produktivit¨atssteigernd genutzt werden kann.

3.6.3

Wartung von Flugzeugen

Bereits erfolgreich eingesetzt wird der Wearable Computer in der Flugzeugwartung. Das mitnehmen von schweren Wartungsb¨ uchern ist dadurch nicht mehr n¨otig, und außerdem hat der Mechaniker beide H¨ande f¨ ur die Arbeit zur Verf¨ ugung. Schaltpl¨ane oder Anweisungen zur Reparatur eines Schadens k¨onnen u ¨ber einen HMD angezeigt werden, und mit der Unterst¨ utzung von einer Kamera kann man die Anweisungen auch an die richtigen Stellen projizieren, um sozusagen direkt auf Teile des Flugzeuges zu zeigen (siehe Abbildung 3.14).

Abbildung 3.14: Reparatur eines Flugzeuges mit Hilfe eines Wearable Computers

KAPITEL 3. WEARABLE COMPUTING

3.7 3.7.1

65

Forschung im Bereich ”Wearable Computing” Digital Life Consortium

Es gibt viele Forschungsaktivit¨aten an der MIT in Zusammenarbeit mit Unternehmen und Studenten. Das Digital Life Consortium13 ist ein Multi–Sponsor Forschungs–Consortium das im Januar 1997 gegr¨ undet wurde. 17 Fakult¨aten, u ¨ber 90 Studenten und 55 Unternehmen der ganzen Welt definieren gemeinsam die Forschungsthemen und arbeiten bei der Umsetzung der Projekte eng zusammen. Die vertretenen Firmen arbeiten in den Bereichen Telekommunikation, Medien, Datenaustausch, Ver¨offentlichung, Verbraucher–Elektronik und Computer. Es werden periodisch Workshops gehalten, um den Fortschritt der Arbeiten zu pr¨asentieren. Zwei mal im Jahr werden an den ”Media Laboratories” sogenannte ”full–member meetings” abgehalten um die Forschungsinhalte abzustimmen.

3.7.2

Technische Universit¨ at Darmstadt

Mit den Herausforderungen des Ubiquitous Computing besch¨aftigt sich auch Prof. Dr. Max M¨ uhlh¨auser vom Fachbereich Informatik an der Technischen Universit¨at Darmstadt. Endger¨ate und Infrastrukturen sind Forschungsthemen f¨ ur die man sich hier besonders interessiert. Seine Arbeitsgruppe arbeitet an den wichtigsten Herausforderungen des heranbrechenden Zeitalters ubiquit¨arer vernetzter Computer, gegliedert nach dem S.C.A.L.E–Prinzip. Folgenden Fragen stellt sich die Arbeitsgruppe. ˆ Wie kann man eine globale Infrastruktur von Ein– und Ausgabeger¨ aten ohne Konflikte gleichzeitig ben¨ utzen? ˆ Wie kann eine Person mehrere heterogene Ein– und Ausgabeger¨ ate zur selben Zeit verwenden, ohne verwirrt zu werden? ˆ Wie kann die Privatsph¨ are in einer offenen Infrastruktur gesichert werden? ˆ Wie kann eine bessere Personalisierung erreicht werden? ˆ Wie k¨ onnen die F¨ahigkeiten von einzelnen Ein– und Ausgabeger¨aten beschrieben werden, damit sie ohne manuelle Konfiguration u ¨ber eine drahtlose Infrastruktur zusammenarbeiten? ˆ Wie k¨ onnen User–Interfaces beschrieben werden, damit sie mit beliebigen Ger¨aten funktionieren, ungeachtet des Types, der Gr¨oße und Form, . . . ? ˆ Wie kann die Sicherheit garantiert werden (z.B. das Passanten nicht das Licht im Wohnzimmer einfach ausschalten k¨onnen)? 13

http://dl.media.mit.edu/

KAPITEL 3. WEARABLE COMPUTING

66

In einem Projekt werden Prototypen audio–basierter Endger¨ate f¨ ur Ubiquitous Computing entwickelt, sogenannte ”Talking Assistants (TA)” (Modell siehe Abbildung 3.15). TAs sind sprachgest¨ utzte Headsets, die u ¨ber Prozessor und Speicher, eine drahtlose Netzwerkanbindung (Bluetooth) sowie eine Kombination von Sensoren bzw. Aktuatoren zur Handhabung von Kontextinformation verf¨ ugen. Letztere umfasst unter anderem Identit¨at und Standort (hochgenaues IR–System) des mobilen Benutzers sowie die ungef¨ahre Blickrichtung (elektronischer Kompass und Neigungssensor).14 (Siehe Abbildung 3.16)

Abbildung 3.15: Modell des Talking Assistant

Zusammen mit einer verteilten Laufzeitumgebung unterst¨ utzen diese Ger¨ate Anwendungen wie personalisierte Ausstellungsf¨ uhrer oder Labor– bzw. Wartungsassistenten. Spezielle Features wie die akustische Ausgabe von Information anstatt einer visuellen Ausgabe, sollen die Augenfreiheit des Benutzers gew¨ahrleisten. Man versucht auch eine m¨oglichst Hand–freies Arbeiten zu erm¨oglichen. Nicht nur die Position des Benutzers sondern auch seine Blickrichtung bestimmen die ”Location–Aware” Eigenschaft des Systems. Das Alter, Interessen, verf¨ ugbare Zeit und eine Tour–Historie sind die Grundlage f¨ ur eine personalisierte Unterst¨ utzung des Benutzers. Die Rechenleistung liegt in der Infrastruktur und verhindert somit eine zu hohe Komplexit¨at der Endger¨ate beim User. Das zweite Projekt, welches noch kurz vorgestellt wird, hat eine globale Infrastruktur f¨ ur Ubiquitous Computing namens MUNDO zum Ziel. MUNDO integriert enger fokussierte Teilprojekte, darunter auch TA, in einer offenen Serviceplattform, welche insbesondere WLAN–Hotspots und ¨offentliche Mobilfunknetze als koexistierende ”Tr¨agerdienste” zu integrieren erlaubt.15 Das Infrastrukturschema ist in Abbildung 3.17 zu sehen. Die Infrastruktur wird in bestimmte Elemente, die in Abbildung 3.18 dargestellt werden, aufgeteilt. ˆ ME (Minimal Entity) ist ein Ger¨ at im Besitz des Users mit digitaler Identit¨at f¨ ur den 14 15

http://www.tk.informatik.tu-darmstadt.de/Forschung/Poster/TalkingAssistant http://www.tk.informatik.tu-darmstadt.de/Forschung/Poster/Mundo

KAPITEL 3. WEARABLE COMPUTING

67

Abbildung 3.16: Systemarchitektur des Talking Assistant

Vertrauensschutz und Sicherung durch biometrische Authetifizierung (z.B. Talking Assistant). ˆ US (User aSsociable) Benutzerger¨ ate die von ME abh¨angen, personalisiert durch die Verbindung mit dem User. US muß in der Umgebung von ME bleiben (z.B. Tablet PC, Zeigeger¨at, . . . ). ˆ IT (smart ITem) ist ein nicht zuweisbares Item (z.B. ein Raum). ˆ WE (Wireless group Environment) Ad-Hoc Verbindung von ”personal Environments” (z.B. mehrere Kameras speichern auf eine Speicherbox). ˆ THEY (Telecooperative Hierarchical ovErlaY network) Infrastrukturbasierende Vernetzung (z.B. Museums WLAN und Server Infrastruktur).

3.7.3

Universit¨ at Bremen (TZI)

Das Technologie-Zentrum Informatik (TZI) der Universit¨at Bremen besch¨aftigt sich schon seit l¨angerer Zeit mit dem Thema der mobilen Informationsverarbeitung. Der Schwerpunkt liegt dabei auf den Potentialen von Wearable Computing in industriellen Anwendungen. Eine wichtige Aufgabe in diesem Zusammenhang ist die Auseinandersetzung mit

KAPITEL 3. WEARABLE COMPUTING

68

Abbildung 3.17: Schema der Infrastruktur

Abbildung 3.18: Elemente der Infrastruktur

Aspekten, die das große Innovationspotential neuartiger mobiler Technologien deutlich offenlegen und wirtschaftlich verwertbar machen. Das TZI entwickelt in diesem Zusammenhang spezielle Nutzungsmodelle und Technologien f¨ ur den Einsatz von tragbaren Computern in der Inspektion.[TZI a] ”Location based Computing” bietet Services in Abh¨angigkeit der aktuellen Position des Benutzers. Durch Identifikation bestimmter Markierungen (Bar–Codes, RF–Tags) kann der tragbare Rechner Inspektionsobjekte, Baugruppen oder einzelne Teile automatisch erkennen und sich neuen Situationen entsprechend anpassen. ”Neuartige Benuterschnittstellen” werden f¨ ur Spezialanwendungen eingesetzt und entwickelt. Im industriellen Einsatz sind herk¨ommliche Bedienkonzepte wie Maus– und Tastatursteuerung h¨aufig nicht anwendbar. Neben der Sprachsteuerung kommen hier auch andere innovative Konzepte zum Einsatz, zum Beispiel die Steuerung u ¨ber K¨orperhaltung, Gesten und Bewegungen.

KAPITEL 3. WEARABLE COMPUTING

69

Das Projekt WinSpect hat gezeigt, dass mobile Informationsverarbeitung im praktischen Einsatz immer auch eine weitreichende Auseinandersetzung mit den spezifischen Anforderungen des jeweiligen Anwendungsgebiets erfordert. Die Themenfelder welche hierbei bearbeitet werden, ber¨ uhren Disziplinen wie z.B. Ingenieurs–, Sozial–, Arbeits–, Wirtschaftswissenschaften, Psychologie, Kognitionsforschung und viele Bereiche der Informatik, aber auch Design, Bekleidungstechnik usw. . Um das Thema breit und interdisziplin¨ar bearbeiten zu k¨onnen, hat das TZI das ”WearLab” initiiert, das als themenzentrierte instituts¨ ubergreifende Forschungsgruppe vorhandene Kompetenzen b¨ undeln und anbieten soll.[TZI b]

3.7.4

Technische Universit¨ at Linz (Software Group)

Unter der Leitung von Univ.-Prof. Mag. Dr. Alois Ferscha wird an der Technischen Universit¨at Linz sehr viel im Bereich ”Pervasive Computing” geforscht. Ferscha ist nach langj¨ahriger Forschungst¨atigkeit im Bereich der Entwicklung von Software f¨ ur verteilte Systeme an der Universit¨at Wien nun mit der Etablierung eines Forschungsschwerpunktes ”Pervasive Computing” als Professor an der Universit¨at Linz besch¨aftigt. Seine Lehrt¨atigkeit umfasst unter anderem Softwareentwicklung, Embedded Systems und Telekooperation. Erfolgreiche praktische Anwendungen aus dem Bereich der Pervasive Computing Frameworks sind zum Beispiel ein Echtzeit–SMS–Notifikationssystem auf RFID Basis (Wienmarathon, Berlinmarathon), die Mehrbenutzerinteraktion auf ”Virtuellen Walls”[FS02], Team–Awareness in WLANs (Wireless Campus Space)[Fer00] oder Embedded Webservices (”Internetkoffer”)[FVB02]. Im Wesentlichen besch¨aftigt man sich mit Software und Methoden in vernetzten Systemen. In der Grundlagenforschung setzt man sich mit den Themen Softwarearchitektur, Algorithmen, Coordination und Interaktion von vernetzten Systemen im ”Mobile Computing” auseinander. Systemseitig wird in den Gebieten ”Wireless, Ad–Hoc Networking”, ”Wearable Computing”, ”Qualit¨at von Services” und ”Performance Analyse” gearbeitet. Tiefergehende Forschung wird in den Bereichen ”Awareness”, ”Intelligente L¨osungen”, ”Software Services”, ”Nat¨ urliche Interfaces” und ”Smart Devices” betrieben. Die anwendungsorientierte Forschung hat das Kernthema ”Industrielle Anwendungen von Pervasive Computing”. Das Aufgreifen von Problemen, Analysieren und Entwickeln von L¨osungsans¨atzen in ”Multi–User Umgebungen”, ist die Faszination der sich das Team um Professor Ferscha hingibt. Ferscha kommt aus dem Bereich Mehrprozess–Systeme und hat damit ideale Voraussetzungen f¨ ur die Komplexe Denkweise die diese Themen von jemanden ab¨ verlangen. Die Ubersicht in Abbildung 3.19 zeigt die genauen Themengebiete an denen die ”Software Group” arbeitet.[Gro03] Die ”Software Group” bildet eine Forschungsgruppe innerhalb des Institut f¨ ur Praktische Informatik an der Johannes Kepler Universit¨at in Linz. Multi–User Umgebungen im Mobile Computing, Ubiquitous Computing, Wearable Computing mit drahtloser Verbindung untereinander und nat¨ urlich auch zum Internet, die Zusammenarbeit und das gemeinsame Nutzen von Resourcen (group/workspace), ist ein Forschungsbereich dieser Gruppe. Weiters ist die Koordination und Interaktion sowie die Qualit¨ats– und Performance–Analyse von solchen Systemen ein Spezialgebiet. Auf dem Gebiet ”Wireless Communication Systems And Communication Software” stellt man sich Themen wie Netzwerk–Protokolle, Netzwerk–Architektur, Breitbandkommunikation und ¨ahnliches.

KAPITEL 3. WEARABLE COMPUTING

70

Abbildung 3.19: Forschungsbereiche der Software Group

Dies ist die Grundlage f¨ ur die praxisorientierte Forschung, in welcher man sich unter Anderem folgenden Aufgaben widmet. ˆ Context Computing [Fer02] ˆ Multi–User Umgebungen [FVP+ 03] ˆ Globale Netzwerke im Kommerziellen und Industriellen Alltag [Fer03] ˆ Ger¨ ateunabh¨angige eServices [Fer01b] ˆ Real–Time Multimedia Anwendungen

Das Projekt ”Context (Context Framework f¨ ur Mobile Anwendungen)” setzt sich zum Ziel, Methoden zur Handhabung von unstrukturierten Daten die von einer Vielzahl von Sensoren und Aktoren erzeugt und untereinander bzw. mit Dritten ausgetauscht werden, zu definieren und analysieren. Hier spielt auf der einen Seite die Kommunikations– Hardware (IEEE802.11b, Bluetooth, RFID) eine Rolle, auf der anderen Seite die Protokolle (TCP/IP, XML, SOAP, RDF) u ¨ber die Daten ausgetauscht werden. Es stellt sich nun die Frage, wie man zum richtigen Zeitpunkt die richtige (relevante) Information erfassen kann und eine geeignete Repr¨asentation f¨ ur diese semantischen Context Informationen

KAPITEL 3. WEARABLE COMPUTING

71

zu finden. Die Definition einer eigenen Regelsyntax ist n¨otig, um die Interaktion und Ereignisbehandlung von heterogenen Ger¨aten zu unterst¨ utzen.[Fer01a] ”COOPERATE” versucht eine multimediale Kooperationsumgebung f¨ ur Teams, organisatorische Einheiten und Enterprises zu schaffen. Diese soll eine zu jederzeitige und ortsunabh¨angige Zusammenarbeit, Lehr– und Lernumgebung zur Verf¨ ugung stellen. Diese mobilen Arbeitspl¨atze vereinen Augmented Reality und Ubiquitous Computing zu einer virtuellen, allgegenw¨artigen Arbeitsumgebung.[FPN+ 03] Unter dem Projektnamen ”Pervasive Computing” wird an Konzepte und Design von mobilen und pervasiven Systemarchitekturen Entwicklungsmethodologien f¨ ur koordinations und interaktionsorientierten Anwendungen, kontextsensitiven Anwendungen, information appliances, smart systems, nat¨ urlichen Interfaces und qualitativeSystemevaluierung, gearbeitet16 . Mit dem Projekt ”RIPE” soll versucht werden, die Ober¨osterreichische IT–Industrie zu einer der f¨ uhrenden auf dem Gebiet Pervasive Computing zu machen. Das Forschungsinstitut f¨ ur Pervasive Computing wurde von der Ober¨osterreichischen Landesregierung gegr¨ undet und soll zusammen mit dem Institut f¨ ur Praktische Informatik und der IT– bezogenen Industrie von Ober¨osterreich die Technologieplattform f¨ ur praxisorientierte Pervasive Computing Anwendungen bilden. Der Softwarepark Hagenberg bietet aus ¨okonomischer und organisatorischer Sicht die optimale Umgebung f¨ ur die Zusammenarbeit 17 mit der technischen Industrie. Die Arbeit in technischen Forschungslabors verlangt durch die komplexen Arbeitsabl¨aufe ein großes Wissen u ¨ber verschiedenste Laborger¨ate und den Umgang mit gef¨ahrlichen Substanzen. Weiters sind Experimente oft auf mehrere Arbeitspl¨atze oder R¨aume verteilt. Somit ben¨otigen Laborassistenten mehr Unterst¨ utzung und F¨ uhrung wenn sie mit neuen Ger¨aten oder unbekannten Experimenten konfrontiert werden, aber auch in t¨aglichen Situationen bei ihrer Arbeit. Die Verwendung von mobile und Wearable computing kann diese Prozesse visuell darstellen und unterst¨ utzen. Hardware und Software daf¨ ur zu entwickeln, war die Motivation f¨ ur das Projekt ”WearIT”.18 Die Software Group zeichnet sich verantwortlich f¨ ur das bereits erw¨ahnte Projekt Wireless Campus”, f¨ ur das Konzept und die Implementierung einer drahtlosen Kommunikations Infrastruktur am gesamten Campus der Universit¨at Linz. Ob in H¨orsaal, Mensa, am ¨ Uni-Parkplatz oder auf der Wiese im Universit¨atspark, die Nutzer des Osterreich weit einmaligen Projekts k¨onnen jederzeit mit ihren Notebooks oder PDAs kabellos online gehen. Viele Studierende erhalten bereits u ¨ber die am Campus fl¨achendeckend installierten HotSpots Zugang zum gesamten Datennetz der Universit¨at. Neben der 220 WLAN Access Points, einer VPN–Daten¨ ubertragung und einem auf LDAP basierendem Authentifizierungssystem, unterst¨ utzt eine Softwarel¨osung die Forschungsaktivit¨aten, die Lehre und die Managementaufgaben am Campus, basierend auf Positiontechnologien (IEEE802.11b, Bluetooth) und Identifikationstechnologien (IrDA, optische Marker).[Fer00] Unter ”Awareness” versteht man in der Mehrbenutzer-Interaktionssoftware allgemein das situative Wissen, das eine Gruppe von Benutzern individuell u ¨ber sich, die gesamte Gruppe, die zu l¨osende Aufgabe und Gesamtzustand des Kooperationssystems haben. Die 16

http://www.soft.uni-linz.ac.at/Research/Projects/Pervasive Comp/ http://www.soft.uni-linz.ac.at/Research/Projects/RIPE/ 18 http://www.soft.uni-linz.ac.at/Research/Projects/WearIT/ 17

KAPITEL 3. WEARABLE COMPUTING

72

¨ Erhebung, Interpretation, Filterung, Ubertragung und Visualisierung von Information dar¨ uber, wer gegenw¨artig mit welchen Aktivit¨aten besch¨aftigt ist bzw. vor hat zu setzten, wie diese zum Gesamtvorhaben beitragen, warum (mit welcher Motivation und Intention) Benutzer bestimmte Aktivit¨aten wann setzen, ist eine zentrale Fragestellung im Design von Gruppensoftware. Die Awareness–Funktionalit¨at in Mehrbenutzersoftware ist zumeist von der prim¨aren Softwarefunktionalit¨at (z.B. Co-Editing, Document Sharing, Videoconferencing, virtuelle Meetings, etc.) entkoppelt, und stellt damit trotz enger Integration eine eigenst¨andige Softwarekomponente in solchen Systemen dar. Am Institut f¨ ur Praktische Informatik wurde in der Arbeitsgruppe von Prof. Alois Ferscha ein Awareness Softwareframework entwickelt, das neben den genannten Dimensionen auch noch erkl¨art, wo sich ein Benutzer gegenw¨artig befindet bzw. im Falle eines mobilen Benutzers wohin er sich mit welcher (angen¨aherten) Geschwindigkeit bewegt (Location Awareness). Dabei wird unter Nutzung der IEEE802.11b Wireless LAN Technologie die geographische Position eines Benutzers ermittelt, in einer auf XML basierten Darstellung bereitgestellt und von entsprechenden Applikationsprogrammen in der Folge benutzt. Zur Veranschaulichung wurde die Webapplikation ”CampusSpace” entwickelt, die den Campus der Universit¨at Linz mit seinen Geb¨auden und Freir¨aumen als 3D-Modell abbildet, in dem Benutzer (Studenten, Professoren, etc.), so sie diese Information freigeben, mittels einer Benutzerabstraktion (Avatar) dargestellt werden und somit f¨ ur alle anderen sichtbar sind (siehe Abbildung 3.20). Benutzer k¨onnen im CampusSpace direkt und rasch miteinander in Interaktion treten, wobei sowohl synchrone, asynchrone und mobile Kommunikationsm¨oglichkeiten unterst¨ utzt werden. Die einzige Systemvoraussetzung f¨ ur den Betrieb des CampusSpace ist der Zugang zum Internet mit traditionellen (Java-enabled) Webbrowser als Clientsoftware.[FBN02]

Abbildung 3.20: R¨aume mit Anzeige der anwesenden Personen

Gegenw¨artig wird das Awareness Framework in die Richtung pro–aktiver ortsabh¨angiger Software weiterentwickelt, in der einem mobilen Benutzer noch w¨ahrend er unterwegs ist vorbereitend Dienste am erwarteten Zielort zur erwarteten Ankunftszeit bereitgestellt werden.

KAPITEL 3. WEARABLE COMPUTING

73

Forschung und Lehre profitieren gleichermaßen vom Einsatz der Drahtloskommunikation. Beispielsweise haben die Studenten w¨ahrend einer Lehrveranstaltung zus¨atzliche Interaktionsm¨oglichkeiten. Sie k¨onnen Fragen elektronisch zum Rechner des Vortragenden schicken, von wo aus sie sofort f¨ ur alle Studenten sichtbar auf die Tafel projiziert werden. Ein derartiges System existiert bereits an der Linzer Universit¨at. Die technische Architektur ist in Abbildung 3.21 zu sehen.19 Die Kommunikation per Mobiltelefon (SMS) mit dem Lehrveranstaltungsleiter ist jedoch kostenpflichtig und somit gerade f¨ ur Studenten eher hemmend. Es kann diese Kommunikation aber auch per Internet abgewickelt, und somit eine entsprechend g¨ unstigere Variante geschaffen werden. Mit der entsprechenden Software kann man diese Idee noch weiter ausbauen, indem man den Studenten die M¨oglichkeit bietet, von ihrem Platz aus elektronisch auf die Projektionsfl¨ache zu zeichnen, um so ihre Anliegen, Probleme oder Fragen verst¨andlich zu vermitteln.

Abbildung 3.21: R¨aume mit Anzeige der anwesenden Personen

Man k¨onnte auch Dokumenten direkt w¨ahrend der Lehrveranstaltung zur Verf¨ ugung stellen oder untereinander austauschen. Zu jeder Lehrveranstaltung (Seminar, Vorlesung Praktikum, ...) k¨onnten die Studenten Wissen sammeln, auf ihren eigenen Rechnern speichern und anderen zug¨anglich machen. Anders als bei Webseiten w¨are das ein verteiltes Repository. Wissen k¨onnte man thematisch oder nach Personengruppen klassifizien und freigeben. Lehrveranstaltungen k¨onnte man u ¨berall mitverfolgen, man kann also in der Mensa, am Vorhof oder sogar in einer gleichzeitig stattfindenden Vorlesung sein. Aufgrund des Wirkungsbereichs eines Access Points ist es als Nebeneffekt des drahtlosen Kommunikationssystems m¨oglich, eine ungef¨ahre Angabe u ¨ber den Aufenthaltsort einer Person zu machen. Man kann also auf Wunsch am Campus ßichtbarßein oder nicht. Somit 19

http://www.soft.uni-linz.ac.at/Research/Projects/Wireless Campus/Technologie/Architektur/

KAPITEL 3. WEARABLE COMPUTING

74

k¨onnen andere Personen u ¨ber den Namen oder eine eindeutige Identifizierung herausfinden, ob sich eine Person am Campus befindet und wenn ja, wo sie sich im Moment aufh¨alt. Aber egal wo sich jemand gerade befindet, man ist mit Wireless Campus immer in der Lage, der gesuchten Person Informationen zukommen zu lassen. Es gibt bereits viele weitere Ideen, die sich am Wireless Campus verwirklichen ließen, und die eine Verbesserung der Forschung und der Lehre nach sich ziehen w¨ urden. Dieses Projekt ist der erste Schritt um die theoretische Forschung in der Praxis zu testen und Erkenntnisse daraus zu ziehen. Schrittweise wird man das Multiuser System so erweitern, dass zum Beispiel Vorabinformation durch ”Pervasive Objects” erzeugt wird einen User die ben¨otigte Unterst¨ utzung zeitgerecht zukommen zu lassen (z.B.: Wer ist in dem Raum den ich gleich betreten werden, kenne ich ihn und wenn ja, was haben wir zuletzt besprochen). Ein lernendes Informationssystem zum Nutzen aller User sollte das Ziel der Aufgabe sein. Das was Steve Mann bereits seit Jahren als Singluser praktiziert, wartet darauf von einem Multiuser–System abgel¨ost zu werden. Vielleicht entwickelt sich die Johann Kepler Universit¨at zu einer Cyborg–City in der die Studenten und Lehrenden nicht mit Laptop oder PDA, sondern mit Wearable Computern ihren Studienalltag und Lehr– oder Forschungsauftrag nachgehen. Viele Ubiquitous und Pervasive Computeranwendungen werden auch als Context–Aware Anwendungen charakterisiert. Diese Anwendungen reagieren nicht nur auf ihre internen Zust¨ande und User–Interaktionen, sondern auch in Abh¨angigkeit mit dem in Verbindung stehenden Context. Die Adaptivit¨at einer Applikation oder eines Endger¨ates auf die Zeit, den Ort (location based services), die Person (personalized services) oder allgemein die Situation, in der die Anwendungen zum Einsatz kommen, wird unter dem Begriff ”Context” zusammengefasst. Context–Modelle und entsprechende Context-Computing Softwareframeworks sind die Gegenst¨ande der Forschung von kontextbezogene Technologien und Anwendungen im Pervasive Computing. Der ”Context” einer Anwendung bzw. ”Context Awareness” wird von A. K. Dey wie folgt erkl¨art.[DA00] ”Context is any information that can be used to characterize the situation of an entity. An entity is a person, place or object that is considered relevant to the interaction between a user and an application, including the user and applications themselves. A system is context–aware if it uses context to provide relevant information and/or services to the user, where relevancy depends on the user’s task.” Context–Aware Computing ist eher als Baustein f¨ ur andere Bereiche, wie Ubiquitous Computing, Ambient Computing oder Disappearing Computing zu sehen. Der Computer soll in vielen Bereichen aus dem Bewusstsein der Benutzer verschwinden. Sie verrichten ihre Arbeit im Hintergrund mit m¨oglichst wenig notwendiger Interaktion mit dem Benutzer.[DA99] Es m¨ ussen L¨osungen f¨ ur einige Frage die sich im Zusammenhang mit ”Context Aware” Systemen stellen, gefunden werden. ˆ Terminologie – Es wird ein einheitlicher Wortschatz ben¨ otigt um u ¨ber ContextAwareness reden zu k¨onnen. ˆ Methoden – Wie entwickelt man Anwendungen mit Kontextbezug?

KAPITEL 3. WEARABLE COMPUTING

75

ˆ Repr¨ asentation und Erfassung von Kontext – Wie wird Kontext intern repr¨asentiert? ˆ Verschmelzen, Filtern, Interpretation und Vorhersage von Context – Mit Kontext muss auch ”gearbeitet” werden k¨onnen. Erst durch Kombination von verschiedenen Kontextarten ergibt sich ein m¨achtiges Werkzeug. ˆ Skalierbarkeit – Wie kommunizieren die Anwendungen und potentiell tausende von Sensoren, welche den Context erfassen? ˆ Privacy – Es ist sicher nicht gew¨ unscht, dass jeder immer meinen Standort weiss. ˆ Anwendungsentwicklung – Werden neue Programmiersprachen ben¨ otigt, so wie es bei SQL f¨ ur Datenbankanwendungen notwendig war?

Es ist die Entwicklung von einigen Komponenten f¨ ur eine ”Context Aware” Umgebung n¨otig. ˆ Kontext Sensoren – Hier sind nicht nur physikalische Sensoren gemeint, die Daten wie Temperatur oder Zeit erfassen. Vielmehr ist auch hier hoher abstrakter Kontext wie der pers¨onliche Terminkalender oder die M¨oglichkeiten sich fortzubewegen gemeint. ˆ Maße – Kontext kann in verschiedener Qualit¨ at geliefert werden. Positionierungssysteme arbeiten zum Beispiel mit einer Genauigkeit von Zentimetern bis hunderte Meter. ˆ Prim¨ are Filter – Ein Erfassungssystem kann aus tausenden Sensoren bestehen. Das System soll nicht mit unn¨otiger Information u ¨berflutet werden. ˆ Fusionierungs Module – Kontextteile k¨ onnen von verschiedenen Sensoren kommen und machen erst nach Fusionierung Sinn. ˆ Kontext Filter – Filter sind wichtig, da ein Anwendung zum Beispiel nicht daran interessiert ist, wo sich jemand genau befindet, sondern nur, ob von demjenigen der Raum betreten oder verlassen wurde. ˆ Interpreter – Kontext kann f¨ ur Schlussfolgerungen herangezogen werden. Wenn zum Beispiel ein H¨orsaal mit Zuh¨orern belegt ist, der Großteil ruhig sitzt und einer spricht, k¨onnte das auf eine Vorlesung hinweisen. ˆ Anwendungen – F¨ ur das Design von Anwendungen werden neue Werkzeuge, Methoden und eventuell sogar Programmiersprachen ben¨otigt.

In der Vergangenheit wurde an einer Vielzahl von Context–Modellen geforscht. W¨ahrend sich a¨ltere Modelle haupts¨achlich auf die Modellierung von einzelnen Applikationen oder einer Applikationsklasse beschr¨anken, sind generische Modelle von Interesse, wenn mehrere Applikationen vom Context profitieren k¨onnen. Derzeitige Context–Modelle unterscheiden sich im Context den sie repr¨asentieren. Einige verwenden die aktuelle Situation des Benutzers (z.B. In einer Vorlesung), andere Modelle die physikalische Umgebung

KAPITEL 3. WEARABLE COMPUTING

76

(z.B. Standort). Die ersten Schritte in Richtung allgemeines Verst¨andnis von Context wurden publiziert, meistens mit Ber¨ ucksichtigung der Identit¨at, Zeit und Standort. Es ist also n¨otig, einheitliche Context–Modelle, Darstellungs– und Query–Sprachen sowie Ursachenalgorithmen zu entwickeln, die Context–Sharing und Interoperabilit¨at von Applikationen erlauben. Wichtig beim Context–Computing ist das Erkennen und Verarbeiten von Information im Umfeld, da sie u ¨ber die existierende Infrastrukturumgebung eines Ger¨ates Auskunft gibt. Das Sammeln, die Transformation, Interpretation, die Versorgung mit Information und ¨ deren Ubertragung sind die Schl¨ usselelemente in der Entwicklung von smart environments und smart applications. Information kann kontinuierlich oder in einmaligen Events zur Verf¨ ugung gestellt werden. Dadurch sind nat¨ urlich auch zwei verschiedene Arten von Context Sensing Mechanismen n¨otig (continuous sensing und event based sensing).[Fer02] Kontinuierliche Informationsangebote werden nach Datenmenge und Wichtigkeit f¨ ur das Framework gefiltert. Solche Datenquellen stellen Information u ¨ber den aktuellen Zustand der realen Umgebung zur Verf¨ ugung, wie zum Beispiel Indikatoren wie Temperatur, Lichtverh¨altnisse, Verbindungsqualit¨at,. . . . Diese Art von Information wird typischer Weise in fixen Zeitintervallen gesampelt. Alternativ dazu kann auf Anfragen gesampelt werden. Bei Web–basierenden Umgebungen k¨onnen diese Daten mittels eines simplen HTTP Serverscript bereitgestellt werden. Dies ist ein einfacher Weg den aktuellen Wert abzufragen. Andauernde Verbindungen k¨onnen genutzt werden wenn Daten in fixen Intervallen gelesen werden, um den Verbindungsoverhead zu minimieren (HTTP). Dies wird beispielsweise bei WebCams, Statusanzeigen und a¨hnlichem genutzt. Kontinuierliche Datenquellen k¨onnen, durch das zur Verf¨ ugung stellen von einer Liste von WLAN–Ger¨aten mit ihren MAC und IP Nummern in Kombination mit ihren zugeordneten WLAN–Access Point, einen kom¨ pakten Uberblick u ¨ber aktive Ger¨ate und ihre Position basierend auf einen definierten Radius um einen Access Point geben. Watchdog Mechanismen monitoren die Umgebung auf Events und ihre sofortige Registrierung im Framework. Eventbasierte Datenquellen stellen keine Systemstati zur Verf¨ ugung, sondern geben Status¨anderungen bekannt. Zum Beispiel beim Analysieren von Sensordaten. Durch ihr dynamisches Verhalten, k¨onnen diese Events nicht u ¨ber Standard–HTTP Mechanismen ausgelesen werden. Statt dessen m¨ ussen solche Events, aktiv, durch das Aufrufen von Eventhandler–Scripts am Webserver, ihre Daten den interessierten Parteien zur Verf¨ ugung stellen. Im Projekt CONTEXT von Prof. Ferscha werden RFID–Reader an Mobilen Ger¨aten (PDA) als eventgenerierende Datenquellen genutzt. Sobald ein Transponder das elektromagnetische Feld eines RFID–Readers bemerkt, werden dessen ID gelesen und zu einem Event–Listener–Service am Framework–Server gesannt. Dort wird ein Updater–Prozess aufgerufen, welcher die definierten Relationen abarbeitet und die n¨otigen Daten erneuert und die Information zur Historie als auch zu einem Meldeprozess sendet. Dieser informiert ¨ alle interessierten Parteien, dass eine Anderung im Raum (z.B. Office) statt fand (Schema siehe Abbildung 3.22).[FVB02] Ein anderes Thema ist die abstrakte Darstellung der Kontext–Information. Die Pr¨asentation auf Basis des Resource Description Framework (RDF) zur Modellierung der Artifacts Person, Ding und Ort als RDF–Resourcen, ist eine m¨ogliche Technologie. In Kombination mit RDF–Schema (RDFS), bietet RDF eine m¨achtige Syntax f¨ ur die semantische Wissens-

KAPITEL 3. WEARABLE COMPUTING

77

Abbildung 3.22: Schema des Systems von CONTEXT

modelierung. RDF und RDFS basieren auf XML, einem Web–Standard zum Austausch von Informationsdaten. Das RDF–Modell besteht aus drei grunds¨atzlichen Objekttypen welche das Subjekt, Pr¨adikat und Objekt–Tripel formen, auch RDF–Statements genannt. Diese drei Objekttypen sind Resourcen, Eigenschaften und Statements. Jedes Objekt in RDF wird Resource genannt. Dies kann eine einfache HTML–Seite sein, Daten wie Bilder und Graphiken im Web oder reale Objekte die nicht direkt ins Internet eingebettet sind. Wie bereits erw¨ahnt, werden Resourcen der realen Welt oft in Personen, Dinge und Orte eingeteilt. Properties sind die spezifischen Attribute welche eine Resource, aber auch ihre Beziehung zu anderen Resourcen, beschreiben. Jede Eigenschaft hat ihre eigene Charakteristiken, wie zum Beispiel Werte welche u ¨bertragen werden und solche die nicht u ¨bertragen werden. Die Basissyntax und Modellspezifikation von RDF beinhaltet nicht diese spezifischen Property–Charakteristika. Zu diesem Zweck werden die RDF–Schema Spezifikationen ben¨otigt. Das Subjekt (Resource), Pr¨adikat (Property) und der Property– Wert (Objekt) Tripel, bilden ein RDF–Statement. Der Property–Wert kann ein Literal sein, eine andere Resource oder ein URI zu einer anderen Resource. RDF hat ein einfaches, aber leistungsstarkes Modell und Syntaxdefinition und ist daher eine gute Wahl zum Darstellen und Liefern von Context Sensing Information. Weiters ist es einfach, RDF–Statements (Subjekt, Pr¨adikat und Objekt Tripel) von beliebigen Datenbanken zu importieren oder exportieren. Ein weiterer wichtiger Aspekt sind die Bem¨ uhungen ein Standardvokabular zur semantischen Datenbeschreibung zu etablieren. Das hat insofern einen Vorteil, da man Standarddefinitionen f¨ ur Properties wie Email, Name, oder Datum verwenden kann. Im Projekt CONTEXT wird ein Satz von grundlegenden Kontextinformationseigenschaften verwendet, um die Darstellung von location und containment awareness, Besitz und Bindung von Personen zu Dingen und eine Historie dieser Eigenschaften zu handhaben.

KAPITEL 3. WEARABLE COMPUTING

78

Um zwischen den drei grunds¨atzlichen Typen von Objekten zu unterscheiden, wurden folgende Grundeigenschaften verwendet. ˆ Place ˆ Person ˆ Thing

Places halten Information u ¨ber den Ort (location) und referenzieren zu einer Anzahl von Objekten welche sich aktuell an diesem Ort befinden (Liste der Objekte = contains). Um Ver¨anderungen in der Inhaltsliste zu erkennen, ist das Aufzeichnen einer Historie n¨otig (history tag = contained ). Eintr¨age in die contained Property Liste haben zwei Zeitstempel (startTime und endTime), welche die Periode spezifizieren, in der sich der Eintrag in der contains Property Liste befand. Eine Person h¨alt Information u ¨ber den aktuellen Aufenthaltsort in einem Scenario (isIn) und eine Liste von Objekten welche im Besitz dieser Person stehen (ownerOf ). Zus¨atzlich gibt es eine Liste von fr¨ uheren Aufenthaltsorten (wasIn). Ein Thing h¨alt Information dar¨ uber, ob es andere Objekte beinhalten kann (canContain), wie zum Beispiel eine Tasche oder ein Rucksack. Falls es andere Objekte beinhalten kann, hat es zus¨atzlich ein Informationstag contains und ein contained Tag um die Objekte zu verfolgen. Weiters hat ein Thing ein Informationstag u ¨ber seinen Besitzer (owner ). In zwei Anwendungsszenarien wurde die Integration dieser Kontext–Information in eine RDF gezeigt. Dies sind der ”Context Aware Suitcase” oder auch Internetkoffer (siehe Abbildung 3.23 genannt und die ”Electronic Object Tagging” Anwendung zum Erkennen von Objekten in der Umgebung.[FVB02]

Abbildung 3.23: Der ”Context–Aware” Internetkoffer

Die Entwicklung von wireless devices die von smart digital environments umgeben sind, macht es n¨otig, neue Methoden zur Erkennung und Darstellung von Kontextinformation zu entwickeln. Dies ist ein wichtiger Punkt in der Entwicklungen von Wearable bzw. Pervasive Computing–Umgebungen. Um die Entwicklung von ”Context–Aware” Anwendungen zu unterst¨ utzen, sollten sich Softwareentwickler nicht darum k¨ ummern m¨ ussen,

KAPITEL 3. WEARABLE COMPUTING

79

wie, wann und wo Kontextinformation entsteht. ”Context–Sensing” muss hingegen anwendungsunabh¨angig und die Kontextdarstellung f¨ ur alle m¨oglichen Anwendungen gleich sein.

3.7.5

Frauenhof IPSI

Am Frauenhof Institut ”IPSI (Integrierte Publikations- und Informationssysteme)” forscht man ebenfalls viel im Bereich Ubiquitous Computing. Unter der Leitung von Dr.Dr. Norbert A. Streiz wird im Forschungsbereich ”AMBIENTE – Smart Environments of the Future” an verschiedenen Interaktionsm¨oglichkeiten gearbeitet. Das Ambiente Lab dient als Testbett f¨ ur ”Roomware”–Komponenten und f¨ ur die Zusammenarbeit zwischen verteilten Roomware–Umgebungen mit kooperativer Software sowie Audio– und Videokonferenz. Roomware besteht aus folgenden Komponenten. ˆ ”CommChair” ist ein Drehsessel mit integriertem Computer f¨ ur konzentrierte Einzelarbeit und interaktive Zusammenarbeit von Teams. ˆ ”Connec–Table” bezeichnet ein h¨ ohenverstellbares interaktives Pult f¨ ur konzentrierte Einzelarbeit und interaktive Zusammenarbeit von Teams. ˆ ”InteracTable” ist ein interaktiver Stehtisch, der als informelles Kommunikationszentrum in kooperativen Arbeitsumgebungen dient. ˆ An einer 4,50 m breite und 1,10 m hohe interaktive elektronische Wand namens ”DynaWall”, k¨onnen mehrere Personen auf neuartige Weise gleichzeitig mit Informationen interagieren. ˆ Und schließlich noch ein in die Wand integriertes interaktives Plasma Display Panel (PDP) mit dem Namen ”InforMall”.

Abbildung 3.24 zeigt wie diese Interaktionsgegenst¨ande aussehen. Die so genannten ”Roomware–Komponenten” und ”Smart Artefacts” werden sowohl in die Umgebung integriert als auch als mobile Ger¨ate realisiert. Um mit diesen interaktiven Kommunikations– und Kollaborationslandschaften zu arbeiten, sind Kompetenzen in verschiedenen Bereichen n¨otig, wie zum Beispiel computerunterst¨ utzte Gruppenarbeit, Interaktionsdesign und Mensch–Computer–Interaktion, Ubiquitous Computing und Sensorik. Das IPSI versucht durch verschiedene Projekte, Hard– und Softwarekomponenten zu entwickeln die diesen Anforderungen gen¨ ugen. ”InterSpace” ist ein Projekt das sich mit neuen Interaktionsformen f¨ ur Gruppen in Ubiquitous Computing Umgebungen befasst. Hier stehen Fragen wie die ”Interaktion mehrerer und verschiedener Ger¨aten”, ”Unterst¨ utzung von Zusammenarbeit”, ”Pers¨onliche und ¨offentliche Ger¨ate” sowie die ”Integrierte Umgebungen: Benutzer, Ger¨ate, Kontext” zum Thema. Statt universell einsetzbarer Maschinen werden Computer zu sogenannte ”Information Appliances”, die auf einen bestimmten Anwendungszweck zugeschnitten sind. Ubiquitous

KAPITEL 3. WEARABLE COMPUTING

80

Abbildung 3.24: Komponenten von ROOMWARE

Computing–Umgebungen werden mit diesen Ger¨aten ausgestattet. Dadurch ergeben sich nat¨ urlich v¨ollig neue Anforderungen an Benutzungsschnittstellen. Ger¨ateunabh¨angige Interaktoren sind zu definieren, um eine koherente Benutzung zu erm¨oglichen. Bei der Zusammenarbeit mehrerer Personen an einem einzigen Ger¨at, muss sichergestellt werden, dass die Benutzungsschnittstelle so gestaltet sind, dass Interferenzen vermieden werden. Unterschieden wird zwischen Ger¨aten zur pers¨onlichen Benutzung (z.B.: PDAs) und Ger¨ate zur Unterst¨ utzung von Gruppenarbeiten wie zum Beispiel interaktive Bildschirme. Gruppenger¨ate k¨onnen nat¨ urlich auch f¨ ur den Zugriff auf pers¨onliche Informationen benutzt werden. Nat¨ urlich sind diese Ger¨ate auch vom Kontext abh¨angig, wie zum Beispiel vom Ort oder der Gegenwart anderer Personen. Wenn Informationen in Sitzungen erzeugt werden, muss definiert sein, wer nach der Sitzung welche Zugriffrechte beh¨alt. Es ist wichtig, dass Benutzer sich auf eine konsistente Benutzungsschnittstelle verlassen k¨onnen, die alle verf¨ ugbaren Ger¨ate einschließt. Dies steht jedoch im Gegensatz zu der Forderung nach Schnittstellen, die auf die jeweiligen Ger¨ate angepasst sind. Deshalb m¨ ussen Interaktionsstile und Schnittstellenkonzepte entwickelt werden, die es erm¨oglichen, auf der einen Seite abstrakt und unabh¨angig vom benutzten Ger¨at zu sein, und auf der anderen Seite jedoch f¨ ur diese Ger¨ate zugeschnitten sind. Im Rahmen des Teilprojekts ”InterSmArt” engagiert sich der Arbeitsbereich ”Ambiente” in der Verbesserung der benutzerorientierten und ergonomischen Gestaltung von Smart Artefacts. Gewonnene Erkenntnisse werden in Form von prototypischen Realisierungen umgesetz. Daf¨ ur werden innovative Interaktionsformen entwickelt, die koh¨arente Erfahrungen bei der Verwendung von ”Smart Artefacts” erm¨oglichen. Smartness kann sich auf die intelligente Anpassung von Interaktionen sowohl an Gegebenheiten der physikalischen Welt als auch deren Gegenst¨ uck im virtuellen Informationsraum beziehen.

KAPITEL 3. WEARABLE COMPUTING

3.8

81

Philosophische Betrachtung

Das Thema Wearable Computing kann durchaus auch philosophisch betrachtet werden. Eine interessante Arbeit gibt es von Birgit Richard, die eine relativ realistische Betrachtungsweise dieses Themas zeigt. ”Der Mensch zwischen Wearables und Cargo Kult” nennt sich ihr kritisches Werk u ¨ber 20 die Verschmelzung von Technik und Mensch. Birgit Richard spricht von getragener Technologie, deren Konzept beinhaltet, dass Menschen digitale Informations– und Kommunikationstechnologien komplett am K¨orper tragen und so die Transformation des Personal Computing zum Body Computing vollziehen. Der Computer wird zum unsichtbaren prozessierenden Kleid. Die Entwicklung der Mode steht dem technologischen Fortschritt dabei um nichts nach. Im Gegenteil, viele Ideen von Modek¨ unstlern geben den Forschern Anhaltspunkte, wohin sich der Kommerz dieser Produkte bewegen wird. Die Modebranche hat wohl auch mehr Gesp¨ ur daf¨ ur, was von den Konsumenten gefordert bzw. gew¨ unscht wird. Die Integration von Hightech Materialien und ein mit ”Cargo”, ”Utility” und ”Futuristik Look” zu benennender Trend, der vor allem in den jugendlichen Szenen ihren Ort hat, bieten einen interessanten Ausblick auf die zuk¨ unftige Integration von Technologie.[Ric98] Technologie wird direkt an den K¨orper gebunden. Die Mobilit¨at der Gegenst¨ande beginnt mit technisch–medialen Erweiterungen wie dem Walkman und f¨ uhrt u ¨ber kommunizierende, sendende und empfangende Ger¨ate wie Pager oder WAP Handy, Uhren, wie Swatch the Beep und PDAs zur vernetzten Online–Kleidung. Der Ursprung liegt wie so oft in der milit¨arischen Kleidung und der Arbeitskleidung. Wearables, wie sie vom MIT und Neil Gershenfeld verstanden werden, sind Ger¨ate die die F¨ahigkeiten des Menschen wesentlich erweitern sollen.[MIT] Die Entwerfer solcher Gegenst¨ande gehen davon aus, dass der Mensch und seine Sinne unterentwickelt sind und quasi mediale Prothesen ben¨otigen.[Ric98] Richard ist der Meinung, dass die bedeutungsvolle Invasion des Technologischen durch die harmlose Bezeichnung Kleidung abgelenkt werden soll. Andrew Ross beschreibt die technologische Ideologie wie folgt.[And95a] ”Human–made object world becomes an alternative home of intelligence?” Die smarte Intelligenz der Objekte ist kosteng¨ unstig und unterwirft sich programmierten Strukturen.[And95b] Die Wearables zielen nur bedingt darauf ab, Menschen mit einer Behinderung das Leben zu erleichtern, sind also nicht in erster Linie Prothesen. Die Zusammenfassung aller dieser Bem¨ uhungen um die tragbaren Gegenst¨ande symbolisiert der ”Prototyp” Steve Mann, der best¨ uckt mit verschiedenen technischen Verst¨arkungen als menschlicher Cyborg Science Fiktion in die Realit¨at verlagert. Seine ”Augmented Reality” liegt noch weit hinter den fiktionalen M¨oglichkeiten zur¨ uck, die ein Cyborg in zeitgen¨ossischen Filmen wie ”Terminator” l¨angst hat. Wenn dieser ein Ziel anvisiert, werden Informationen u ¨ber Orte, Waffensysteme und Personen auf seine Netzhaut projiziert.[Ste86] Cyberliteratur dient aber auch als Zielvorstellung f¨ ur Forschung und Entwicklung. Es ist also nur eine Frage der Zeit, dass diese ”Cyborg–Technologien” in unser Leben Einzug 20

http://www.rz.uni-frankfurt.de/fb09/kunstpaed/indexweb/indexwszwei/wearable.html

KAPITEL 3. WEARABLE COMPUTING

82

finden. Die technischen Voraussetzungen sind Miniaturisierung, Gewichtsreduktion und gemeinsame Standards zum Datenaustausch in einer vernetzbaren Umgebung. Durch die Vereinheitlichung der individuellen BodyNets entsteht eine Art Software–Uniform. Als Tr¨ager eines Wearable muss der Mensch auf einer materiellen und einer immateriellen Form f¨ ur seine Gesundheit Sorge tragen. Beide muss er gleichermaßen vor Viren ¨ oder gewaltt¨atigen Ubergriffen sch¨ utzen. Die smarte Kleidung ben¨otigt also auch Updates, Reparaturen und Sicherheitsmaßnahmen. Sie muss zum Beispiel gen¨aht werden, fehlende Kn¨opfe oder geplatzte N¨ahte m¨ ussen geschlossen werden, um die Funktionalit¨at zu gew¨ahrleisten. Die elektronische Kleidung ist ein offenes System und damit nicht einbruchssicher und auch nicht vor Viren gesch¨ utzt. Das Eindringen eines Wurms wie ”I love you” k¨onnte man als eine virtuelle Geschlechtskrankheit bezeichnen. Die Infektion findet u ¨ber die Kleidung statt, eine intelligente Kleidung sollte diese also abwehren k¨onnen. Um den Markt zu erobern wird es nicht gen¨ ugen die Funktionalit¨at und Kompatibilit¨at der Kleidung zu gew¨ahrleisten. Es ist vielmehr notwendig von der urspr¨ unglichen Intention der Unsichtbarkeit eines Wearables abzukommen und die ¨asthetischen Seiten zu entdecken und ins Design einzubringen. Die Funktionalit¨at alleine wird dem Kunden nicht gen¨ ugen, die Kleidung muss ihm auch gefallen und er sollte sich in ihr wohlf¨ uhlen. Das MIT versucht Visionen f¨ ur die Wearables von Designern entwerfen zu lassen und stellt die Ergebnisse bei verschiedenen Shows zur Schau.[MIT ] Nicht der Kleinstcomputer bringt die Integration von Technik in die Kleidung, wie im Konzept der Wearables vorgesehen, sondern die Aufteilung von Funktionen auf viele kleine Ger¨ate. Im Mittelpunkt des Cargo–Kults steht das Handy. Es ist modisch integrierbar, wandelbar, aber auch gleichzeitig auf bestimmte Funktionen konzentriert. Die transportable und k¨orpernahe Kommunikationsm¨oglichkeit wird zun¨achst an den G¨ urtel geh¨angt, als reine Erweiterung also nicht in die Kleidung integriert. Das Mobiltelefon zeigt die Richtung an, die Wearable Computing einschlagen m¨ usste, um massenwirksam zu sein. Schon die Wahl der richtigen Bezeichnung f¨ ur das Tragen von Elektronik ist entscheidend, um die Produkte nicht mit einem negativen Gef¨ uhl zu behaften. Das Tragen von ”Technologie” in der modischen Kleidung ist weniger mit direkter k¨orperlicher Belastung, mit Gewicht assoziiert, dagegen klingt ”Wearable Computing” nicht nur nach einer schweren zus¨atzlichen Last, sondern sie erschwert dem Menschen den Alltag, weil die Hardware transportiert werden muss.[Man98]

Kapitel 4 Projekt - Virtual Tourist Guide (VTG) Um die Probleme und L¨osungsm¨oglichkeiten im Wearable Computing besser zu verstehen, ist es notwendig eigene Erfahrungen in diesem Bereich zu sammeln. Dies war auch die Motivation f¨ ur das folgende Projekt, das zumindest eine dieser neuen Technologien beinhalten sollte. Spielereien sind zwar immer der erste Schritt f¨ ur neue Produkte, aber einen gewissen Praxisnutzen sollte die Anwendung schon mit sich bringen. Ein neues Ein– oder Ausgabeger¨at w¨are eine M¨oglichkeit gewesen, es fehlte dazu jedoch eine herausfordernde Ideen. Ein anderer Ansatz ist es, ungew¨ohnliche Ein– oder Ausgabeger¨ate f¨ ur eine neue Wearable–Applikation zu verwenden. Dies war auch der Weg der eingeschlagen wurde und somit der Startschuß zum Projekt ”VirTour” den virtuellen Touristenf¨ uhrer.

4.1

Projektidee

Was ist die Idee hinter diesem Projekt bzw. wozu soll diese Anwendung schießlich dienen? Diese Frage soll an einem kleinen Beispiel veranschaulicht werden. Man stelle sich vor, man ist in einer fremden Stadt und steht vor einem interessanten Geb¨aude. Man streckt den Zeigefinger in Richtung des Geb¨audes und fragt: ”Was ist das?”. Kurz darauf fl¨ ustert einem ein elektronischer Fremdenf¨ uhrer, via Minilautsprecher, Informationen u ¨ber jenes Objekt ins Ohr und eine Kurzinformation wird einem u ¨ber einen HMD angezeigt. Zus¨atzlich wird der Kurzinformation eine URL hinterlegt, mit der man mittels UMTS–Verbindung sofort weitere Informationen aus dem Internet abfragen kann. Ein anderes Beispiel w¨are der virtuelle Bergf¨ uhrer. Man stelle sich vor man ist wandern, zeigt auf einen Berg und fragt: ”Welcher Berg liegt dort?”. Kurz darauf die Antwort: ”Der große Donnerkogel; 1856m hoch; 2,5 Stunden Gehzeit von ihrer derzeitigen Position”. Und vielleicht noch eine Navigationskarte mit den m¨oglichen Routen und Jausenstationen. ”Mobile Computing” als Technologie f¨ ur einen elektronischen Fremdenf¨ uhrer der dem Benutzer Informationen direkt aus dem Internet liefert. Eine GIS–Anwendung im ”Wearable Bereich” die bestimmt in nicht all zu ferner Zukunft Realit¨at sein wird. Das Ortungssystem sollte dabei nicht nur die Position des Anwenders, sondern auch die

83

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

84

Ausrichtung feststellen k¨onnen. Wenn nun Position und Richtung bekannt sind, stellt sich nur noch die Frage der Entfernung zu einem bestimmten Objekt. Um eine Vereinfachung zu schaffen, geht man von einem Sichtkegel aus, mit dem man einen bestimmten Blickbereich eingrenzt. Alle Objekt in diesem Kegel werden nach ihrer Entfernung zum Benutzer sortiert und aufgelistet. Als zus¨atzliche Orientierungshilfe wird die aktuelle Position in einer Karte dargestellt (siehe Abbildung 4.14 im Abschnitt 4.5.2). Als geeignetes Bildformat zur grafischen Darstellung in einem Webbrowser, bot sich der Grafikstandard ”SVG” an (siehe Abschnitt 4.2.3). Beim Bet¨atigen des Button ”Was ist das?” werden die Positionsdaten f¨ ur die Berechnung der Objektdaten zum Server geschickt. Dieser u ¨bergibt das Ergebnis wieder dem Client (Web–Browser). Neben der Information des Objektnamens wird, falls vorhanden, auch eine URL zu einer Internetseite angezeigt, wo man weitere Informationen zu den Objekten finden kann. Es steht die Auswahl verschiedener Informationstypen zur Verf¨ ugung, die aus der Datenbank geladen und im SVG–Bild angezeigt werden. Dies sind der Objektcode (”MAPKEY”), der ”NAME”, die Beschreibung (”DESCRIPTIO”) und die ”URL” zu einem Objekt. Weiters ist das Aus– und Einblenden von ”Text”, ”Shapes” und dem Sichtkegel (”View Area”) im angezeigten SVG-Bild vorgesehen (siehe Abbildung 4.1).

Abbildung 4.1: Ablauf einer Objekterkennung

4.2

Bildformate

Die folgende Beschreibung ist lediglich eine allgemeine Vorstellung der verwendeten For¨ mate und eine kurze Ubersicht u uge und Anwendungsbereiche. ¨ber deren Vorz¨

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

85

Die hier vorgestellten Vektorgrafik Formate stehen im Zusammenhang mit dem Projekt ”VirTour”. Die Rohdaten f¨ ur das Projekt lagen im ”.dxf–Format” vor. Diesen Daten wurden Zusatzinformationen hinzugef¨ ugt und u ¨ber eine Koordinatentransformation wurden die Objektdaten schließlich im ”Shape–File–Format” in der Datenbank gespeichert. Bei einer Anfrage werden die betreffenden Objekte dann aus der Datenbank berechnet und u ¨ber einen Web–Browser als ”SVG–Grafik” dargestellt.

4.2.1

DXF

DXF ist ein Format f¨ ur vektororientierte Programme und wurde von der Firma Autodesk entwickelt. Daher kommt auch die vorwiegende Verwendung f¨ ur CAD/CAM/CIM. Als besondere Eigenschaft sei erw¨ahnt, daß DXF auch dreidimensionale Objekte speichern kann. Die Anzahl der Farben ist aber auf 8 bit beschr¨ankt und unterst¨ utzt keine Kompression [Dal01]. DXF ist an sich f¨ ur GIS–Anwendungen eher schlecht geeignet, da es keine M¨oglichkeit bietet, Attribute zu r¨aumlichen Objekten zu speichern.

4.2.2

Shapefile

Shapefiles speichern geometrische und beschreibende Information zu geometrischen Objekten. Den Shapefiles liegt eine sehr einfache Datenstruktur zu Grunde und Objekte werden ohne topologische Beziehung gespeichert. Daraus ergeben sich f¨ ur Shapefiles gewisse Vorteile gegen¨ uber anderen Formaten, wie die schnellere Darstellungs– und Editierungsm¨oglichkeit. Sie brauchen zumeist weniger Speicherplatz und sind leicht zum Schreiben und Lesen. Shapefiles k¨onnen Punkte, Linien und Fl¨achen verwalten, wobei jede Form immer als Menge von Punkten gespeichert wird. Bekannte Softwareprodukte die mit diesem Format arbeiten, w¨aren ”ARC–INFO” oder ”ArcView”. Ein Shapefile besteht immer aus drei Dateien. Ein ”Main File”, ein ”Index File” und ein ”dBASE File”. Das ”Main File” speichert die geometrische Information. In einem ”Main File” kann immer nur eine Form gespeichert werden, zum Beispiel nur Punkte oder nur Linien. Insgesamt gibt es in der Spezifikation vom Shapefile 14 verschiedene r¨aumliche Formen, wobei aber im Prinzip immer nur Listen von Eckpunkten gespeichert werden. Um die Einfachheit der Datenorganisation im ”Main File” zu sehen, soll diese kurz erkl¨art werden. Das File beginnt mit einem 100 byte ”Header”, der im wesentlichen den Typ der r¨aumlichen Form beinhaltet. Danach kommen immer ein 8 byte ”Record Header” gefolgt von einem ”Record Content Bereich” verschiedener L¨ange. Im ”Header” steht jeweils die ”Record Number”, welche wichtig ist f¨ ur das ”dBASE File”, sowie die L¨ange des darauffolgenden Blocks. Im ”Record Contents Block” befinden sich dann die Koordinaten der Punkte sowie meistens Koordinaten eines umgebenden Rechtecks des jeweiligen Objekts. Das index–file ist von der Struktur her ¨ahnlich dem main–file. Es besteht nur mehr aus einem Header und 8 Byte langen Records, wobei das i´te Record nur den Offset des i´ten Records im main file speichert sowie die L¨ange des Record Contents des i´ten Records im main file. Das dBASE file beinhaltet die beschreibenden Informationen zu den geometrischen Ob-

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

86

jekten. Die Beziehung zwischen den geometrischen Objekten und deren Attributen erfolgt u ¨ber die oben bereits erw¨ahnte Record Number. Die Reihenfolge der Records im dBASE und im main–file muß daher die selbe sein. Letztes wichtiges Merkmal f¨ ur Shapefile ist, daß die Bezeichnung der Dateinamen der drei Files gewissen Richtlinien folgen muß. Alle drei m¨ ussen den selben Prefix haben und der Suffix ist genau definiert. Folgendes Beispiel soll dies veranschaulichen. Main File: kataster.shp Index File: kataster.shx dBASE File: kataster.dbf F¨ ur eine sehr genaue technische Spezifikation sei auf [ESR01] verwiesen.

4.2.3

SVG

Scalable Vector Graphics (SVG) wurde entwickelt, um einen Standard f¨ ur nicht–Rasterbilder im Web zu erm¨oglichen. Das SVG–Format basiert auf XML und wurde von einer Arbeitsgruppe des World Wide Web Consortium (W3C) entwickelt. SVG ist eine Sprache, um zweidimensionale Graphiken zu definieren, wobei drei Typen von Objekten zur Verf¨ ugung stehen. ˆ Vektor Graphiken (z.B. Linien, Kurven) ˆ Bilder ˆ Text

Diese Graphischen Objekte k¨onnen gruppiert und darauf diverse Effekte angewandt werden, wie Transformation, Animation, Transparenz, Filtereffekte, usw. SVG bietet gegen¨ uber bekannten Rasterformaten wie GIF und JPEG eine Reihe von Vorz¨ ugen, besonderes wenn es um Graphiken des Typs Zeichnung oder Illustration geht. Als vektorbasiertes Format bietet es nat¨ urlich die entsprechenden Vorz¨ uge. Skalierbare Vektorgrafiken sehen bei jeder Aufl¨osung gut aus, man kann beliebig einzoomen und sie sehen weiterhin scharf und detailreich aus. Texte bleiben editierbar und durchsuchbar und zumeist ergeben sich f¨ ur SVG Grafiken kleine Dateigr¨ossen, was einen Vorteil f¨ ur die Verbreitung u ¨ber das Internet bringt. Die Tatsache, daß SVG komplett XML–gest¨ utzt ist, bringt noch eine weitere F¨ ulle von Vorteilen: ˆ Grafiken bestehen aus XML–Befehlen, die als Text auf einer Webseite eingegeben werden, die aus HTML oder XML besteht. Es ist einfacher Programmiercode, es gibt keine separaten Bin¨ardateien die verwaltet oder abgelegt werden m¨ ussen. ˆ Als Text lassen sich skalierbare Vektorgrafiken von Suchmaschinen indizieren und von Anwendern mit dem Browser durchsuchen. ˆ Als Text lassen sich skalierbare Vektorgrafiken auch nebenher erstellen, wie zum Beispiel von Datenbankfunktionen. Daher ist es ein ideales Format f¨ ur Diagramme und Graphen, die auf unterliegenden Daten basieren.

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

87

ˆ Als XML–gest¨ utzte Sprache unterst¨ utzt SVG komplett das DOM2 und ist daher vollst¨andig skriptf¨ahig. Skalierbare Vektorgrafiken k¨onnen auf Klicks und Mausbe¨ der Grafik oder anderer Objekte wie HTML–Text wegungen reagieren, Anderungen oder andere Grafiken ausl¨osen. ˆ SVG ist vollkommen XML–konform und funktioniert unter allen Betriebssystemen, Ausgabeaufl¨osungen sowie Farbr¨aumen.

[Ado01]

4.3

Kartenmaterial

”Unsere wichtigste Orientierungshilfe nach der Sonne ist die Karte” [Lin98]. Diese Aussage trifft nicht nur auf die klassischen Methoden der Orientierung zu, sondern besonders auch auf den Einsatz von GPS. Die Karte bildet die Schnittstelle zwischen dem Gel¨ande in dem wir uns bewegen und dem Navigationsempf¨anger. Ohne den Bezug zur Erdoberfl¨ache und zur Karte ist GPS nur in sehr bescheidenem Ausmaß verwendbar und f¨ ur einen sinnvollen Einsatz nicht zu gebrauchen. Daher ist der Einsatz von GPS in einem hohen Maße von der Qualit¨at und dem Informationsgehalt der Karte abh¨angig. Eine Karte ist nur dann verwendbar, wenn sie auch ein Bezugsystem aufweist, das in g¨angigen GPS Empf¨anger eingestellt werden kann. Eine Karte kommt also nur dann f¨ ur eine GPS–Positionierung in Frage, wenn ihr Raumbezug zur Erde (die absolute Orientierung) ausreichend bekannt ist und sich aus ihr Koordinaten kartometrisch auswerten lassen. Die Verwirrung um allgemeine Begriffe wie Ellipsoid, Kartendatum oder Abbildung ist aber groß. Die meisten GPS-Nutzer scheitern schon am Versuch, ihr Ger¨at mit den notwendigen Parametern zu kalibrieren, was eine Verwendung der Kartengrundlage erst m¨oglich macht, und auch diverse Artikel in Zeitschriften bringen leider nicht immer Licht ins Dunkel. Die Bezeichnung des Ellipsoids ist die erste wichtige Information, die GPS braucht um ¨ richtig zu rechnen. Dieses Ellipsoid ist das Kartendatum. Osterreich und Deutschland verwenden das Bessel-Ellipsoid, die Schweiz hat ein eigenes, ein Großteil der restlichen Welt verwendet das Modell WGS84, besser bekannt unter der Bezeichnung UTM [Fab99]. Allein in diesen Zeilen werden Datum, Ellipsoid und Abbildungssystem in einen Topf geworfen und auch falsch verwendet. Wie soll der Leser daraus die Grundlagen von Koordinatensystemen oder Abbildungen verstehen? Die Lagekoordinaten einer Landesvermessung beziehen sich, aus mathematischen Gr¨ unden, auf das geometrische Ellipsoid [HG94]. Mit einfachen Worten ausgedr¨ uckt ist der Ellipsoid die angen¨aherte Form der Erdoberfl¨ache. Der Bessel–Ellipsoid basiert auf den Erdmaßen ¨ nach Friedrich Wilhelm Bessel aus dem Jahre 1841. Im Bereich von Osterreich passt sich diese Bezugsfl¨ache besonders gut an den Geoid an, weshalb es auch die geod¨atische ¨ Grundlage f¨ ur die Osterreichische Landesvermessung bildet. Ein anderer wichtiger Ellipsoid ist der WGS84–Ellipsoid. S¨amtlichen GPS Positionsbestimmungen werden zuerst in einem kartesischen Koordinatensystem (X, Y, Z) definiert, dessen Mittelpunkt genau im Schwerpunkt der Erde liegt. Danach werden diese Punkte orthogonal auf das mittlere Erdellipsoid transformiert um sie zu veranschaulichen.

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

88

Das Geod¨atische Datum beschreibt einerseits die Gr¨oße des Ellipsoid, und andererseits die Lage des Ellipsoidmittelpunkts zum Erdschwerpunkt. Somit ist der Raumbezug zur Erde eindeutig festgelegt, womit die GPS-Koordinaten auf die gew¨ unschte Bezugsfl¨ache umgerechnet werden k¨onnen. Das Datum, das der o¨sterreichischen Landesvermessung zugrunde liegt, ist das Datum des MGI (Milit¨argeographisches Institut). Erh¨alt man die Koordinaten (X, Y, Z)WGS oder (B, L, H)WGS einer GPS–Ortsbestimmung, so sind diese f¨ ur ¨osterreichische Kartengrundlagen nutzlos. 7 Parameter sind notwendig, um eine eindeutige Koordinatentransformation von einem Datum in ein anderes durchzuf¨ uhren. Dazu z¨ahlen 3 Parameter f¨ ur die Verschiebung des Ellipsoidmittelpunktes (Translation), 3 Parameter f¨ ur die Drehungen um die Koordinatenachsen (Rotation), und ein Parameter f¨ ur die Maßstabs¨anderung. Die Transformationsparameter im Sinne WGS84 – MGI lauten [Bre93]. Delta X = -563.9 Delta Y = -82.3 Delta Z = -463.4 Alpha = 4.9” Beta = 1.8” Gamma = 4.5” m = -4.5*10ˆ-6 ¨ Diese Werte sind meist auch in g¨angigen GPS Navigationsempf¨angern bereits als Osterreichisches Datum gespeichert. Da es relativ schwierig ist, g¨ unstig an ein gutes Kartenmaterial zu kommen, f¨ uhrte der Weg bei der Suche nach lokalen Daten direkt zum grazer Bauamt. Das Bauamt sellte großz¨ ugigerweise Kartenmaterial vom Bereich Grazer Innenstadt und einen Teilbereich des Inffeldes zur Verf¨ ugung. Diese lagen als Vektorgrafik im dxf–Format vor. Da die Daten in einem anderen Koordinatensystem angegeben waren, als jene die das GPS–Ger¨at liefert, mußte zuerst eine Koordinatentransformation erfolgen. Außerdem mußten die Objekte, die aus einzelnen Linienz¨ ugen bestanden, noch etwas nachgearbeitet und Informationen zu den Objekten erg¨anzt werden. Mehrere Schritte waren schließlich notwendig, um die Objektdaten als Shapes mit den dazugeh¨origen Koordinaten und Zusatzinformationen (Objektname, URL,Kurzbeschreibung) zu erhalten. Die Transformation stellte sich als gr¨oßeres Problem dar, als man glauben m¨ochte. Kartennetzentw¨ urfe (Kartenabbildungen) sollen die Netzlinien und Punkte eines Koordinatensystems von der exakt definierten Oberfl¨ache eines Weltk¨orpers nach bestimmten mathematischen Regeln so in die Ebene abbilden, dass sie dort eine geeignete geometrische Grundlage f¨ ur digitale Modelle und kartographische Darstellungen ergeben. Eine Abbildung, die der definierten Erdoberfl¨ache in allen Teilen ¨ahnlich ist, kann nur wieder auf einer Ellipsoid- oder Kugelfl¨ache (z.B. auf einem Globus) m¨oglich sein. Nur sie ist unter Ber¨ ucksichtigung des konstanten Verkleinerungsverh¨altnisses zugleich l¨angen-, fl¨achenund winkeltreu. Bei der Abbildung einer Ellipsoid- oder Kugelfl¨ache in eine Ebene lassen sich dagegen die drei Eigenschaften gleichzeitig niemals streng verwirklichen [HAKE 1994]. F¨ ur die Navigation und in der Landesvermessung ist vor allem eine winkeltreue (konforme) Abbildung der Erdoberfl¨ache von Bedeutung. Gerhard Mercator entwarf 1569 den ersten konformen zylindrischen Netzentwurf unter der Annahme der

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

89

Abbildung 4.2: Zylindrische Abbildung [HG94]

Erde als Kugel, womit er einen Meilenstein f¨ ur die Seenavigation setzte. Er erstellte damit aber auch eine Vorform der Grundlage, auf der heute fast alle Netzentw¨ urfe f¨ ur die Lan¨ desvermessung aufbauen. Zwei, f¨ ur Osterreich relevante Abbildungssysteme, sollen nun vorgestellt werden. Carl Friedrich Gauß l¨oste erstmals das mathematische Problem der Verebnung des Ellipsoides. F¨ ur die speziellen Anforderungen in der Landesvermessung wurde diese konforme Zylinderprojektion in eine transversale Lage gebracht (siehe Abbildung 4.3).

Abbildung 4.3: Transversale Zylinderprojektion [Wer95]

Die Abszissenachse (x-Werte) ist somit ein Ber¨ uhrungsmeridian, und die Ordinatenachse ¨ (y-Werte) ist der Aquator, wobei auch von Hoch- beziehungsweise Rechtswerten gesprochen wird um Missverst¨andnissen vorzubeugen. Ein Streifen von 1 12 o L¨ange westlich und ¨ostlich dieses Bezugsmeridians wird auf dem Zylindermantel abgebildet, der anschließend in die Ebene abgerollt wird. Man erh¨alt eine konforme Abbildung mit relativ geringen

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

90

L¨angenverzerrungen, die mit wachsender Distanz zum Bezugsmeridian zunehmen. Ein Meridian am Meridianstreifenrand, wird in dieser Abbildung auf einer L¨ange von 300km nur um 45m gedehnt. Um diese Verzerrungen zus¨atzlich in Grenzen zu halten, wurde die Abbildungsbreite von ¨ 3o pro Meridianstreifen gew¨ahlt. Osterreich ist dadurch auf 3 Meridianstreifen abgebildet, die sich aber nicht auf Greenwich, sondern auf den historischen Nullmeridian von Ferro (westlichste Insel der Kanaren) beziehen, und M28, M31 und M34 benannt wurden. Die Umrechnung zwischen Ferro und Greenwich lautet: Alpha Ferro – 17o 40´ = Alpha Greenwich Auf Greenwich bezogen, liegen dann die Meridiane M28 bei 10o 20´, M31 bei 13o 20´ und M34 bei 16o 20´. Bis auf den Bezugsmeridian werden nun alle anderen Meridiane (geographische Netzlinien) als Kurven dargestellt. F¨ ur geod¨atische Zwecke sowie f¨ ur die kartometrische Auswertung von Punkten wurde f¨ ur jeden Meridianstreifen ein eigenes quadratisches Gitter eingef¨ uhrt (siehe Abbildung 4.4).

Abbildung 4.4: Die 3 Meridianstreifen des Gauß-Kr¨ uger-Systems [Wer95]

Wenn nun also Koordinaten in diesem System bestimmt werden, so k¨onnen die Rechtswerte sowohl negativ als auch positiv sein, je nachdem auf welcher Seite des Bezugsmeridians sich der zu bestimmende Punkt befindet (siehe Abbildung 4.5). Aus diesem Grund wurde das BMN (Bundes- MeldeNetz) eingef¨ uhrt, bei dem die Meridianstreifen mit einem Offsetwert versehen wurden. M28 wird um 150.000, M31 um 450.000 und M34 um 750.000 ¨ Meter positiviert. Weiters wird der Hochwert, der vom Aquator aus gemessen wird, um 5 Millionen Meter reduziert. Dieses System ist nicht in allen GPS-Navigationsempf¨angern standardm¨aßig vordefiniert, und muss daher selbst eingegeben werden. Der Nutzer muss sich dar¨ uber im Klaren sein, in welchem Meridianstreifen er sich befindet, ferner die jeweilige Distanz zu Greenwich und den richtigen Offsetwert einstellen. Die Daten des Grazer Bauamtes lagen in Gauß–Kr¨ uger–Koordinaten vor und mußten erst ins WGS84 Koordinatensystem transformiert werden. Hier tauchten die ersten Probleme auf. Zuerst mußte eine M¨oglichkeit zur Transformation der vorliegenden Daten gefunden werden, danach die richtigen Parameter und schließlich mußte das Ergebnis auf Richtigkeit u uft werden. Als Werkzeug f¨ ur die Bearbeitung, Erg¨anzung und Transformation ¨berpr¨

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

91

Abbildung 4.5: GKM und BMN im Vergleich [Wer95]

der Daten wurde ein CAD–Programm verwendet. Mit Unterst¨ utzung des Universit¨ats– Institut f¨ ur Geoinformation in Graz, konnten schließlich die richtigen Parameter f¨ ur die Transformation gefunden werden. Nachdem die Daten im richtigen Format vorlagen, wurden sie in eine Mysql–Datenbank gestellt. Diese Datenbank am Server wird f¨ ur die Auswertung einer Client–Anfrage verwendet. Das Ergebnis wird schließlich wieder im Browser des Client angezeigt. Wie schon erw¨ahnt lagen die urspr¨ unglichen Kartendaten als .dwg–File in Gauß–Kr¨ uger Koordinaten vor. Das vom Bauamt zur Verf¨ ugung gestellte Kartenmaterial wird in Abbildung 4.6 gezeigt.

Abbildung 4.6: Ein Ausschnitt der Katasterdaten der Grazer Innenstadt

Die Kartendaten mit definierten Objekten und zus¨atzlichen Daten wurden schließlich ins WGS84 transformiert und unter dem Filenamen ”kataster koord–austria.dwg” gespeichert.

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

92

Das CAD–Programm stellt auch das Speichern der Kartendaten im Shape–Format zur Verf¨ ugung. Daraus ergeben sich folgende drei Files. ˆ kataster koord wgs84.dbf (Database File) ˆ kataster koord wgs84.shp (Main File) ˆ kataster koord wgs84.shx (Index File)

S¨ammtliche Daten, wie Koordinaten und Attribute werden aus den Shapefiles ausgelesen und folgende Datenbank–Files erzeugt (siehe Tabelle 4.1). categories.frm current keys.frm obj2point.frm objects.frm points.frm properties.frm shapes.frm

.MYD .MYD .MYD .MYD .MYD .MYD .MYD

.MYI .MYI .MYI .MYI .MYI .MYI .MYI

Typen von Attributen H¨ochste IDs zur Datenbank Erweiterung Objekt-Punkt Zuweisung Objekte Punkte Attribute zu den Shapes Typ des Shapes (Linie, Punkt,. . . )

Tabelle 4.1: Datenbankfiles die aus den Shapefiles erzeugt werden.

4.4

Positionsbestimmung

Es h¨angt sehr stark von der Anwendung bzw. von der Umgebung ab, welches System man zur Positionsbestimmung verwenden kann. Befindet man sich in Geb¨auden oder in einer Umgebung die keine freie Sicht zum Himmel erlaubt, ist eine Positionsbestimmung durch Satelliten (GPS) ausgeschlossen. Ben¨otigt man einen großen Bewegungsraum, sind sensorbasierte Systeme nicht unbedingt die richtige Wahl. Bei der Verwendung von GSM als Ortungssystem, stellt sich die Frage der Genauigkeit. Diese h¨angt stark von der Dichte des Sendernetzes ab und ist f¨ ur eine Anwendung wie den VTG auch im Stadtbereich nicht ausreichend hoch (min. 10m Ungenauigkeit). M¨ochte man sich zum Beispiel in den Bergen bewegen, ist die Genauigkeit meist ebenfalls nicht ausreichend bzw. eine Positionsbestimmung unm¨oglich. Es ist also sehr stark von den Voraussetzungen der Anwendung bestimmt, welche Technik man verwendet. Beim Projekt Touristguide wird ein GPS–System verwendet, da man bei diese Anwendung als Objekte nicht nur Geb¨aude, sondern auch Berge und dergleichen definieren kann. Zur Bestimmung der Ausrichtung gibt es grunds¨atzlich zwei M¨oglichkeiten. Entweder man errechnet sich die Bewegungsrichtung aus den letzten Positionen, oder man verwendet einen elektronischen Kompaß. Letztere hat den Vorteil, dass man die Ausrichtung auch bei Stillstand feststellen kann. Außerdem muß die Sichtrichtung nicht mit der Bewegungsrichtung u ur diese Anwendung keine Frage, ¨bereinstimmen. Aus diesem Grund war es f¨

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

93

welche Technik anzuwenden ist und gl¨ ucklicher Weise gibt es ein GPS–Ger¨at von Garmin das einen solchen elektronischen Kompaß eingebaut hat.

4.4.1

GPS–Grundlagen

F¨ uhrung von oben so lautet der Werbeslogan der Firma Garmin, die derzeit den Markt an GPS–Navigationsger¨aten beherrscht. Mit oben sind die 24 Satelliten gemeint, die es uns erm¨oglichen, unsere Position auf der Erde, beziehungsweise auf der Karte, zu jeder Tages– und Nachtzeit auf Knopfdruck, metergenau zu bestimmen. Eines ist jedoch klar, ohne Karte ist GPS zur Orientierung nur begrenzt verwendbar. In vielen Bereichen hat sich GPS schon l¨angst als Navigationshilfe durchgesetzt. In der See–, Luftfahrt und Autonavigation ist diese Technologie nicht mehr wegzudenken. Warum also wird dieses Potenzial f¨ ur die Orientierung noch nicht ausgesch¨opft? Die Gr¨ unde daf¨ ur sind folgende. ˆ Reliefbedingte St¨ orung der Empfangsger¨ ate Die Satellitensignale k¨onnen nur empfangen werden, sofern keine Sichtbehinderung zwischen Satellit und Empf¨anger vorliegt. Zur See, in der Luft oder in Gebieten mit schwacher Reliefenergie sind solche St¨orungen nicht zu erwarten (außer durch Vegetation oder Bebauung). In St¨adten, schmalen Gassen oder ¨ahnlichem, kann diese sogenannte Abschattung ein Problem werden und das System versagen. ˆ Ungeeignete kartographische Grundlagen Bis jetzt gibt es kaum Karten, die sich speziell mit der Thematik GPS befassen. Zum Teil sind sie sogar g¨anzlich unbrauchbar, weil sie kein Bezugssystem zur Erde aufweisen, oder weil dieses nicht ausreichend im Kartenrand angegeben wurde. ˆ Informationsdefizite Um GPS–Ger¨ ate sinnvoll einsetzen zu k¨onnen, bedarf es eines umfangreichen kartographischen sowie GPS-technischem KnowHow. Der K¨aufer eines solchen Ger¨ates wird aber mit einer Reihe von grundlegenden Problemen alleingelassen. ˆ Systemungenauigkeit Im Vergleich zur See– und Luftfahrt wird f¨ ur die Orien¨ tierung im Wohnbereich (Stadt oder anderen bebauten Ortlichkeiten) eine h¨ohere Lagegenauigkeit verlangt. Bis vor kurzem gab der Systembetreiber, das Amerikanische Verteidigungsministerium (kurz DoD f¨ ur Department of Defense) an, dass in 95 Prozent der F¨alle die Lagegenauigkeit einer GPS–Messung unter 100m und die H¨ohengenauigkeit unter 140m liegt [HWLC94]. Die Erfahrung in der Praxis zeigte jedoch, dass die g¨angigen Navigationsger¨ate eine Lagegenauigkeit von ca.30 Metern erreichen. V¨ollig u ¨berraschend wurde mit 2. Mai 2000 der SA–St¨orcode aufgehoben, womit sich die Genauigkeit dramatisch verbesserte (bis 4 Meter Genauigkeit bei herk¨ommlichen Ger¨aten). Nachdem man aber weiterhin vom Systembetreiber abh¨angig ist, und der St¨orcode jederzeit wieder aktiviert werden kann, sollte man dennoch die 30m Genauigkeit nicht außer Acht lassen.

Grob gesagt gilt, je mehr Satelliten empfangen werden, umso bessere Ergebnisse sind zu erwarten, und je weniger Satelliten gesehen werden, desto schlechter ist die Positionsgenauigkeit.

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

94

In den letzten Jahren ist die GPS–Technologie zu einem bedeutenden und sehr umfangreichen Forschungsinhalt geworden. St¨andig wurden neue Techniken entwickelt, die die Punktbestimmung dieser Technologie noch pr¨aziser machen. Historisches Die erste Anwendung der Satellitentechnologie zur geographischen Ortsbestimmung geht schon auf das Jahr 1957 zur¨ uck, als der erste Satellit, Sputnik 1, in den Weltraum bef¨ordert wurde. Durch die gleichzeitige Beobachtung des Satelliten von mehreren Bodenstationen (photogrammetrische Richtungsbestimmung, Entfernungsmessung mit Laserimpulsen), konnten Ozeane messtechnisch u uckt werden. [Mec96] ¨berbr¨ Das satellitengest¨ utzte System TRANSIT gilt als Vorg¨anger von NAVSTAR–GPS. Es wurde von der Marine der USA ab 1964 betrieben und diente der Navigation von U– Booten, um ihre Wirksamkeit zu erh¨ohen. Doch auch geod¨atische Grundlagenforschung wurde damit betrieben. Dieses System hatte jedoch einige Nachteile. ˆ eine st¨ andig Ortung war nicht m¨oglich ˆ in Bewegung befindliche Nutzer erreichten nur bescheidene Genauigkeiten ˆ 3–dimensionale Ortung konnten nur station¨ are Nutzer durchf¨ uhren.

F¨ ur die Navigation von Mittel– und Langstreckenwaffen war dieses System nicht ausreichend, also arbeitete die Marine am Projekt ”TIMATION” um die Zielgenauigkeit zu erh¨ohen. 1973 fasste das amerikanische Verteidigungsministerium ”TIMATION” und ein ¨ahnliches Konzept der Luftwaffe in das Projekt ”NAVSTAR–GPS” zusammen. Die Forderungen an ”NAVSTAR” k¨onnen wie folgt zusammengefasst werden. Einem GPS–Nutzer egal ob in Ruhe oder in Bewegung sollen extrem genaue Informationen u ¨ber seine (dreidimensionale) Position, seine Geschwindigkeit sowie u ¨ber die Zeit u ¨berall auf oder nahe der Erde zur Verf¨ ugung gestellt werden. Diese Informationen soll das System st¨andig liefern, unabh¨angig von Wetterbedingungen. [Bau97] Der Aufbau dieses Systems erfolgte in drei Phasen. [Bau97] ¨ ˆ Phase I: 1974 – 1979 Uberpr¨ ufungsphase Testsatelliten wurden gestartet und das System auf seine Tauglichkeit u uft. ¨berpr¨ ˆ Phase II: 1979 – 1985 Entwicklungsphase Es wurden weitere Prototypsatelliten (sogenannte Block I Satelliten) gestartet und Entwicklungsarbeiten f¨ ur die Empfangssysteme geleistet. ˆ Phase III: 1985 – 1995 Ausbauphase Ausbau des Systems mit Block II Satelliten. Mit 17. Juli 1995 wurde das System offiziell f¨ ur voll operabel erkl¨art (Full Operational Capability, FOC).

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

95

Bis jetzt musste noch keiner der 24 Satelliten durch einen Reservesatelliten ersetzt werden. F¨ ur die Zeit nach 2001 wurde eine weitere Generation von GPS-Satelliten in Auftrag gegeben. GPS wird damit f¨ ur die n¨achsten 15 bis 20 Jahre als Vermessungs– und Navigationssystem zur Verf¨ ugung stehen. [See96] Im Mai 2000 wurde der SA–St¨orfilter v¨ollig u ¨berraschend abgeschalten. Somit wurde eine neue Dimension in der Genauigkeit des Systems er¨offnet. Die Europ¨aische Union ist seit den 90–iger Jahren bem¨ uht ein eigenes System zu entwickeln. Das seit 1993 entwickelte ”EGNOS” soll im Jahr 2004 betriebsbereit sein. Es soll die derzeitigen Navigationssystgeme ”GPS” und ”GLONAS” erg¨anzen und damit ihre Genauigkeit erh¨ohen. Das eigene Satellitennavigationssystem ”GALILEO” soll 2008 zur allgemeinen Nutzung zur Verf¨ ugung stehen und neue Zusatzdienste erm¨oglichen. N¨aheres dazu im Abschnitt 4.4.1. Grundprinzip NAVSTAR–GPS ist ein vom amerikanischen Verteidigungsministerium f¨ ur milit¨arische Zwecke entwickeltes, satellitengest¨ utztes Radionavigationssystem. Die Bezeichnung NAVSTAR– GPS ist die Abk¨ urzung von ”NAVigation System with Time And Ranging – Global Positioning System”. Daraus wird zweierlei deutlich. [Jac92] 1. GPS ist prim¨ar ein milit¨arisches Navigationssystem und wurde nicht f¨ ur die zivilen Anforderungen, wie z.B. jene der Vermessungstechnik oder der zivilen Navigation, entwickelt. Es erm¨oglicht die Bestimmung der dreidimensionalen Position des Empf¨angers in Echtzeit und in einem einheitlichen Bezugssystem. Um dieses System vor dem Missbrauch durch andere milit¨arische Einheiten zu sch¨ utzen, wurde ein Teil der Satellitensignale verschl¨ usselt, wodurch sich die Genauigkeit wesentlich verschlechterte. 2. Das grundlegende Navigationsprinzip beruht auf der Messung von Entfernungen zwischen dem Nutzer und mindestens vier Satelliten. Diese Entfernungen werden durch einen Uhrenvergleich ermittelt, indem der Aussendezeitpunkt des Signals am Satelliten mit dem Empfangszeitpunkt des Signals im Nutzerempf¨anger verglichen wird. Wird diese Zeitdifferenz mit der Signalausbreitungsgeschwindigkeit c multipliziert, erh¨alt man die Entfernung zum Satelliten. Hat man die Entfernung zu 3 Satelliten ermittelt, so kann die Empf¨angerposition berechnet werden, wobei die ¨ Entfernung zum vierten Satelliten eine Uberbestimmung darstellt, die Uhrenungenauigkeiten des Empf¨angers ausgleicht [See96]. Der Aufbau von NAVSTAR–GPS kann in folgende 3 Einheiten unterteilt werden. 1. Raumsegment: Die Gesamtheit aller verf¨ ugbaren Satelliten bildet das Raumsegment. Anfang 1997 waren dies 24 Satelliten, drei davon sind aktive Reservesatelliten, die aber ebenfalls Signale aussenden und verwendet werden k¨onnen. Diese Satelliten umkreisen die Erde in einer ungef¨ahren H¨ohe von 20 200 km, an¨ geordnet in sechs Bahnebenen, die um 55 Grad zur Aquatorebene geneigt sind. Die Umlaufzeit eines Satelliten betr¨agt etwa 12 Stunden, wobei er von einem Punkt aus

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

96

betrachtet im Vergleich zum Vortag um vier Minuten fr¨ uher auf– und untergeht. [HWLC94] Die Satelliten wurden so angeordnet, dass folgende Bedingungen erf¨ ullt sind: ˆ Die Anzahl der Satelliten sollte m¨ oglichst gering sein ˆ Polnahe Gebiete sollen beobachtet werden k¨ onnen, eine unn¨otige Satellitenanh¨aufung an den Polen sollte jedoch vermieden werden. ˆ Die Satellitenkontakte sollten gut u ¨berschaubar sein.

Bei mindestens 24 Satelliten sind von jedem Punkt der Erde, bei jedem Wetter und zu jeder Zeit zwischen 6 und 8 Satelliten u ¨ber dem Horizont sichtbar. [Bau97] 2. Kontrollsegment: Zu den Aufgaben des Kontrollsegments geh¨oren die Voraus¨ berechnungen der Satellitenbahnen, die Uberwachung der Satellitenuhren (Gang, ¨ Stand), die Ubermittlung der Navigationsnachricht an die Satelliten, sowie die Gesamtkontrolle des Systems. Dazu sind neben Bahnkorrekturen auch SA (Selective Availability) und A–S (Anti–Spoofing) zu z¨ahlen. [HWLC94] F¨ unf Stationen auf der Erde bilden das Kontrollsegment, wobei diese in Hauptkontrollstation, Monitorstationen und Bodenkontrollstationen unterschieden werden. Die Hauptkontrollstation befindet sich in Colorado Springs, Colorado und wertet alle Daten der Monitorstationen aus, welche die Satelliten beobachten. Dabei werden die Satellitenbahnen vorausberechnet, und die Bahnkorrektur der Satelliten durchgef¨ uhrt. Weiters wird das Verhalten der Satellitenuhren bestimmt und an die Bodenkontrollstationen weitergeleitet. Auf den Monitorstationen werden zus¨atzlich zu den Satellitendaten auch noch meteorologische Daten gemessen. Diese befinden sich auf Hawaii, Kwajalein (Pazifik), Diego Garcia (Indischer Ozean) und Ascension (s¨ udlicher Atlantik). Die Bodenkontrollstationen haben die Aufgabe, Navigationsnachrichten an die Satelliten zu u ¨bermitteln. 3. Benutzersegment: Im Benutzersegment werden alle Ger¨atesysteme zusammengefasst, die Satellitensignale empfangen, daraus Messgr¨oßen ableiten und in weiterer Folge die aktuelle Position berechnen. Die Hauptkomponenten des Empfangsger¨ates werden in Abbildung 4.7 gezeigt.

Abbildung 4.7: Schematischer Aufbau eines GPS Empf¨angers. [See89]

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

97

Besonders stark ist die Entwicklung auf dem Empf¨angermarkt bei den einfachen und handlichen Navigationsempf¨angern. Hier sind die Preise, aufgrund der großen Nachfrage, in den letzten Jahren enorm gefallen. [See96] Messmethoden Man kann die Satelliten als sogenannte ”hochfliegende Festpunkte” betrachten, deren geometrische Orte bzw. Koordinaten zu jedem beliebigen Zeitpunkt bekannt sind. Die Entfernung zu diesen ”Festpunkten” kann durch verschiedene Methoden ermittelt werden. Wie schon anfangs erw¨ahnt, wird die Entfernung zu den Satelliten durch Zeitmessung ermittelt. Dies setzt sehr genaue Uhren sowohl bei den Satelliten als auch beim Empf¨anger voraus. W¨ahrend bei den Satelliten Atomuhren mit hoher Genauigkeit eingesetzt werden, kann diese Technologie bei den kleinen Empf¨angern logischerweise nicht angewendet werden, wodurch ein Unsicherheitsfaktor entsteht. Damit liegen also f¨ ur eine r¨aumliche Positionsbestimmung nicht mehr nur die drei unbekannten Koordinaten (x, y, z) des zu bestimmenden Punktes vor, sondern es kommt als vierte Unbekannte noch der Uhrenfehler des Empf¨angers hinzu. Um vier Unbekannte zu bestimmen, braucht man also vier Entfernungen, das heisst man muss zumindest vier Satelliten gleichzeitig zur Verf¨ ugung haben. [HWLC94] Hier werden schwerpunktm¨aßig jene Messmethoden vorgestellt, die vorwiegend in der Navigationstechnik eingesetzt werden. 1. Absolute Verfahren (a) Einzelpunktbestimmung Die Einzelpunktbestimmung stellt den Standardfall einer Positionsbestimmung mit einem Navigationsempf¨anger dar. Gesetzt den Fall, es handelt sich um eine zivile Nutzung, so wird mittels Codemessung (C/A–Code), unter der Voraussetzung, dass mindestens 4 Satellitensignale empfangen werden k¨onnen, die Position bestimmt. Durch die Beschr¨ankung des Systems mittels SA kann man mit einer Positionsgenauigkeit von +/- 100 m rechnen, ohne SA wird das Messergebnis wesentlich verbessert. (b) Mittelwertmessung Die oben genannte Genauigkeit bezieht sich auf eine einzelne Messung. Da die St¨orung des Signals durch SA mehr oder weniger zuf¨allig erfolgt, sind mehrere Messungen, die u uhrt ¨ber einen l¨angeren Zeitpunkt am selben Ort durchgef¨ werden, r¨aumlich gut verteilt. Wenn diese Werte dann rechnerisch gemittelt werden, so erh¨alt man einen Punkt, der mit wesentlich gr¨oßerer Wahrscheinlichkeit n¨aher am tats¨achlichen Standpunkt liegt als eine Einzelmessung. Nach diesem Prinzip der Mehrfachmessung und Mittelwertbildung arbeiten die meisten Navigationsempf¨anger [Bre93]. Die Algorithmen in diesen Ger¨aten messen in geringen zeitlichen Abst¨anden die Position, mitteln mehrere dieser Werte, und erh¨ohen somit die Positionsgenauigkeit. 2. Differenzverfahren

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

98

Neben dem SA-Code k¨onnen noch viele andere Faktoren wie atmosph¨arische St¨orungen, Orbitfehler, Uhrenfehler u.s.w, die Genauigkeit einer GPS–Messung beeinflussen. Ein Großteil dieser St¨orungen kann durch das Differenz- oder Relativverfahren beseitigt werden, unter der Voraussetzung, dass zwei Empf¨anger zur Verf¨ ugung stehen. Das Prinzip ist denkbar einfach: Man geht davon aus, dass zur selben Zeit auf alle im Einsatz befindlichen Empf¨anger die selben Fehlereinfl¨ usse wirken. Befindet sich nun ein Empf¨anger station¨ar auf einem koordinativ bekanntem Punkt (wird auch als Basis- oder Referenzstation bezeichnet), so kann die zur Zeit herrschende Ungenauigkeit in x, y, und z Richtung bestimmt werden. Der zweite Empf¨anger, dessen Position bestimmt werden soll (wird auch als Rover bezeichnet), unterliegt zum selben Zeitpunkt genau den selben Fehlern. Nun werden die Korrekturdaten der Basisstation an die Roverstation weitergegeben und dort bei der Positionsbestimmung ber¨ ucksichtigt. [Bre93] Die Differenzverfahren k¨onnen nach ihrem angewandten Beobachtungsverfahren unterschieden werden. Sowohl die Code– als auch die Tr¨agerphasenmessung kann differenziert werden. (a) Codedifferenzverfahren Die Korrekturdaten k¨onnen auf zwei verschiedene Arten verwendet werden. [See96] ˆ Nachtr¨ agliche Berechnungen: Alle Korrektur– und Empf¨angerdaten werden gespeichert und mit geeigneter Software k¨onnen die gemessenen Punkte neu berechnet werden (Postprocessing). Durch die Korrektur der aufgenommenenen Messdaten erreicht man eine Genauigkeit von +/- 10m (vor der Abschaltung von SA). Dies reicht aus, um Kartierungen ab dem Maßstab 1:25 000 durchzuf¨ uhren. Der Begriff ”postprocessing” (Nachbearbeitung) verdeutlicht den Ablauf einer solchen GPSDatenauswertung. Unabh¨angig von anderen Ger¨aten werden die gew¨ unschten Positionen mit einem C/A–Code–Empf¨anger aufgenommen und gespeichert. W¨ahrend der gesamten Messdauer muss eine Basisstation die Korrekturdaten in einem bestimmten Zeitintervall erfassen und ebenfalls speichern. Mit einer speziellen Auswertesoftware werden dann die Absolutmessungen des Empf¨angers mit den Daten der Basisstation korrigiert. Bedient man sich der Methode der Mittelwertbildung, wie sie schon bei den Absolutmessungen angewandt wurde, so erh¨alt man in diesem Fall eine Position, die von der tats¨achlichen um weniger als 1,5m abweicht. Dies ist eine recht beachtliche Genauigkeit. Die Korrekturdaten k¨onnen auf verschiedene Art und Weise bezogen werden.

i. Von Referenzstationen aus dem Internet ii. Von privaten oder o ¨ffentlichen Basisstationen iii. Eigene Datenaufnahme mit zweiten Empf¨ anger als Basisstation ˆ Nutzung in Echtzeit (DGPS): Die Korrekturdaten werden sofort u ¨ber Radiosignale an die Roverstation weitergegeben.

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

99

Das ”D” bei ”DGPS” steht f¨ ur ”Differential”, wobei sich diese Abk¨ urzung f¨ ur das Codedifferenzverfahren in Echtzeit durchgesetzt hat. Bei diesem Verfahren werden die Korrekturdaten von einer Referenzstation an einen Sender u ¨bermittelt, und von dort an den Empf¨anger u ¨ber Radiosignale weitergeleitet. Der Empf¨anger korrigiert seine Messungen mit den Daten und man erh¨alt somit eine Positionsgenauigkeit von unter 10m in (fast) Echtzeit (vor der Abschaltung von SA). [H¨og96] Dieses System hat aber auch Nachteile. – Neben den Satellitensignalen ist man nun auch von einem Radiosignal abh¨angig, das gerade in Gebirgsregionen nicht immer empfangen werden kann. – Zus¨atzlich zum GPS–Empf¨anger ben¨otigt man einen Radioempf¨anger. – Die Ben¨ utzung des Radiosignals ist kostengebunden. ¨ In Osterreich existiert seit 1998 ein DGPS–Dienst. Durch die Abschaltung von SA ist die Genauigkeitssteigerung durch DGPS nur mehr sehr gering, da SA die gr¨oßte St¨orung des Signals bedeutete. DGPS wird in Zukunft f¨ ur die Navigation wahrscheinlich nicht mehr genutzt werden. (b) Phasendifferenzverfahren Sind Positionierungsaufgaben mit cm-Genauigkeit zu l¨osen, muss auf die Rekonstruktion der Tr¨agerwelle u ¨bergegangen werden. Es ist m¨oglich die Phasenrestst¨ ucke Millimeter genau zu bestimmen, die vollen Wellenl¨angen k¨onnen mit den unterschiedlichsten Verfahren gesch¨atzt werden. Genau wie bei den Codedifferenzverfahren n¨ utzt man auch hier die Tatsache, dass zum selben Zeitpunkt u ¨berall die selben Ungenauigkeiten auftreten. Durch den Einsatz von mehreren (meist zwei) Empf¨angern k¨onnen auch hier Fehler der Satellitenuhr, des Satellitenorbits oder der atmosph¨arischen St¨orungen ausgeschaltet werden. [Bre93] Diese Verfahren sind aber zumeist zeitaufwendig oder verlangen ein großes Aufgebot an Technik. Sie sind daher f¨ ur einen Einsatz in der Navigation nicht geeignet. Fehlereinflu ¨ sse und Genauigkeit (a) Fehlerquellen Wenn man sich die Distanz der Satelliten (20 200 km) einmal vor Augen h¨alt, und sich dann noch u ¨berlegt, dass die genaue Entfernung durch Uhrenvergleich von Satellit und Empf¨anger bestimmt wird, so kann man sich doch vorstellen welche Genauigkeitsanforderungen an ein solches System gestellt werden. In diesem Kapitel werden alle St¨orfaktoren aufgelistet, die Einfluss auf die Genauigkeit der GPS–Messungen haben. i. Bahnfehler Die berechnete Bahn der Satelliten weicht immer etwas von der tats¨achlichen ab, wodurch die weiteren Distanzberechnungen gest¨ort werden. F¨ ur geod¨atische Zwecke werden hochpr¨azise Bahnvermessungen durchgef¨ uhrt, die dann u ur Na¨ber das Internet bezogen werden k¨onnen. Sie sind aber f¨ vigationszwecke irrelevant, da sie nicht in Echtzeit zur Verf¨ ugung stehen.

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

100

ii. Ausbreitungsfehler Nur in einem Vakuum breiten sich elektromagnetische Wellen gleichm¨aßig aus. Da die Satellitensignale aber durch die Atmosph¨are zur Erde gelangen, verz¨ogern sie hier ihre Geschwindigkeit. Ionosph¨arische St¨orungen h¨angen stark von der Sonnenaktivit¨at ab, wobei die troposph¨arischen St¨orungen durch Luftdruck, Temperatur und Wasserdampfgehalt beeinflusst werden. In den Modellen zur Distanzberechnung sind diese Faktoren ber¨ ucksichtigt, wobei hier Durchschnittswerte angenommen werden. Da aber diese Werte von Tag zu Tag schwanken, kommt es hier zu Ungenauigkeiten. [Hur89]

Abbildung 4.8: Mehrwegeffekt [See96]

In der Antennenumgebung kann es durch reflektierende Oberfl¨achen (z.B.: Autos, H¨auserfronten, Felsfl¨achen) zu Umwegsignalen und Signal¨ uberlagerungen kommen. Man nennt diesen Effekt auch Multipath oder Mehrwegeffekt, weil ein Signal durch Reflexion mehrmals in den Empf¨anger gelangen kann. [See96] iii. Uhrenfehler Die einzelnen Atomuhren der Satelliten laufen nat¨ urlich nicht mit mathematischer Pr¨azision. Sie werden zwar st¨andig von den Bodenstationen kontrolliert und geeicht, doch kommt es auch hier zu Ungenauigkeiten. [Bre93] iv. Systembeschr¨ ankung durch SA Den gr¨oßten Einfluss auf die Genauigkeit bei den C/A–Code–Messungen hat jedoch die ”SA – Selective Availability”, der St¨oreinfluss des Amerikanischen Verteidigungsministeriums. Die Reduzierung der Genauigkeit erfolgt einerseits durch die Manipulation der Satellitenuhren und andererseits durch eine geringere Genauigkeit der Bahndaten. Die Verschl¨ usselung kann durch autorisierte Anwender, wie dem amerikanischen Milit¨ar, wieder decodiert werden. Ohne Vorank¨ undigung wurde in der Nacht vom ersten auf den zweiten Mai 2000, der SA–St¨orfilter aus dem C/A–Code entfernt, wodurch sich die Genauigkeit dieses Systems massiv erh¨oht. Die v¨ollig freie Nutzung des nun entschl¨ usselten Systems GPS, dessen Aufbau immensen technischen sowie finanziellen Aufwand erfordert hat, ist am ehesten durch die zu erwartenden wirtschaftlichen Impulse in den USA zu erkl¨aren. Aufgrund der

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

101

Genauigkeitssteigerung des Systems wird das Einsatzgebiet dieser Technologie erweitert, wodurch wieder neuer Schwung bei den Ger¨ateherstellern Einzug halten wird sowie eine Steigerung der Abs¨atze gesichert ist. Da die großen Hersteller von GPS-Empf¨angern fast ausschließlich ihren Sitz in den USA haben, ist dies nat¨ urlich vor allem f¨ ur die amerikanische Wirtschaft von Vorteil. Da fast alle GPS Navigationsverfahren den C/A–Code verwenden, ist auch dieser Bereich der GPS–Anwendung jener, der am meisten von der SA Elimination profitiert. Die enorme Genauigkeitsverbesserung f¨ uhrt dazu, dass nicht mehr das System GPS sondern die kartographischen Grundlagen einen Unsicherheitsfaktor in der Navigation darstellen, denn mit einer Lagegenauigkeit von 6.3 Metern bei der Punktbestimmung k¨onnen auch großmaßst¨abige topographische Karten nicht mithalten. In Zukunft wird also die geometrische Genauigkeit der Datengrundlagen eine immer wichtigere Rolle spielen. In folgender Tabelle sind die Fehlereinfl¨ usse und ihre Gr¨oße dargestellt. [Bre93] Fehlerquelle Fehlergr¨ oße Uhrenfehler +/- 3m Bahnfehler +/- 3m Ionosph¨are +/- 8m Troposph¨are +/- 2m Selective Availability +/- 30m Summe: +/- 46m Tabelle 4.2: Fehlerquellen und Fehlerg¨oßen bei der GPS–Positionsbestimmung.

Bis auf den Mehrwegeffekt k¨onnen alle erw¨ahnten Fehlerquellen zu einem Großteil durch differenzielle Verfahren eliminiert werden. Die Genauigkeit der Positionsbestimmung mit GPS h¨angt aber auch von der geometrischen Konfiguration der benutzten Satelliten ab. Diese wird mittels der sogenannten DOP–Werte dargestellt. [See89] (b) Satelitengeometrie Eine GPS–Messung wird wesentlich davon beeinflusst, wie die aktuelle Position der Satelliten zueinander konfiguriert ist. Dies ist vergleichbar mit der Bestimmung eines Schnittpunktes zweier Geraden. Schneiden sich die Geraden in einem spitzen Winkel, so wird das Ergebnis genauer sein, als wenn sich die Geraden in einem sehr flachen Winkel schneiden. Genauso verh¨alt sich dieses Ph¨anomen auch bei Kugelschnitten. Flache Kugelschnitte wirken sich ung¨ unstig auf die Positionsbestimmung aus (siehe Abbildung 4.9). Diese Konstellation kann modelliert werden und mit den sogenannten DOP (Dilution of Precision) Werten zum Ausdruck gebracht werden. Je geringer die DOP–Werte sind, desto g¨ unstiger ist die Satellitenkonstellation. Dabei unterscheidet man verschiedene DOP–Werte. [See89] ˆ PDOP f¨ ur die gesamte 3D-Positionsbestimmung ˆ HDOP f¨ ur die horizontale Positionsbestimmung

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

102

ˆ VDOP f¨ ur die vertikale Positionsbestimmung ˆ TDOP f¨ ur die Zeitbestimmung

Diese Werte k¨onnen aufgrund des Satellitenalmanachs (so wird jene Nachricht in der alle Bahndaten der Satelliten gespeichert sind, genannt) vorausberechnet werden.

Abbildung 4.9: Unterschiede in der Satellitengeometrie [Wel86]

Die Anzahl der Satelliten, die maximal empfangen werden k¨onnen, und der PDOP–Wert stehen in direktem Zusammenhang. Sind u ¨ber vier Satelliten sichtbar, so werden jene ausgew¨ahlt, die die g¨ unstigste Konstellation ergeben, wodurch sich der PDOP-Wert verringert. (c) Genauigkeit der einzelnen Messverfahren In folgendem Diagramm (siehe Abbildung 4.10) wird deutlich, wie groß der Unterschied in der Genauigkeit je nach verwendetem Verfahren ist. Bei den absoluten Messmethoden entspricht die angegebene Positionsgenauigkeit einem Vertrauensbereich von 95%, dass heisst 19 von 20 Messungen sind besser als die angegebenen Werte. Die Genauigkeit der Differentialmessungen h¨angt in erster Linie von der Entfernung zwischen der Basis– und Roverstation ab. [Sch94] In der Theorie k¨onnen bei den absoluten Verfahren Genauigkeiten von +/- 20 Metern erreicht werden, jedoch nur f¨ ur autorisierte Anwender des P–Codes. Der C/A–Code erlaubt eine Positionsbestimmung im Bereich von +/- 40 Metern, allerdings nur, wenn der SA ausgeschaltet ist. Ist dieser eingeschalten, muss der zivile Anwender mit einem Fehler von +/- 100m rechnen, wenn er sich der C/A–Codemessung bedient. In der Praxis zeigt sich, dass bei den absoluten Verfahren in den meisten F¨allen und mit aktuellen Ger¨aten eine wesentlich h¨ohere Genauigkeit erzielt wird. Die modernsten Verfahren der Differenzmessung mit GPS erm¨oglichen heute eine Positionsbestimmung im Millimeterbereich. Allerdings steigt damit sowohl der technische als auch zeitliche Aufwand enorm, womit die Differenzmessungen mit Ausnahme von DGPS-Anwendungen f¨ ur die Navigation ausscheiden.

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

103

Abbildung 4.10: Erreichbare Genauigkeiten der unterschiedlichen Mess– und Auswerteverfahren [Sch94]

Galileo - Europ¨ aisches Satellitennavigationssystem Derzeit gibt es weltweit zwei Satellitennavigationssysteme, ein amerikanisches (GPS) und ein russisches (Glonass). Beide wurden nach milit¨arischen Gesichtspunkten konzipiert. Das russische System hat keine wirklichen zivilen Anwendungen hervorgebracht, sodass GALILEO die einzige Alternative zum faktischen Monopol des GPS und der amerikanischen Industrie darstellt. Durch die Abh¨angigkeit der europ¨aischen L¨ander von den Vereinigten Staaten, die jederzeit eine ordentliche Navigation mit GPS verhindern k¨onnen, hat sich die EU entschlossen ein eigenes globales Satellitennavigationssystems ”GNSS” aufzubauen. Dieses Projekt soll f¨ ur Europa eine Unabh¨angigkeit in der Satelitennavigation bringen und dar¨ uber hinaus eine gr¨oßere Genauigkeit und Zusatzdienste bieten. Es ist in zwei Phasen unterteil, um eine raschere Nutzung zu erm¨oglichen. In der ersten Phase wird das Projekt ”EGNOS” (European Geostationary Navigation Overlay Service) umgesetzt. Das seit 1993 entwickelte ”EGNOS” wird das ”GPS” und das ”GLONASS” System erg¨anzen. Korrekturdaten verbessern die Genauigkeit der derzeitigen Dienste von etwa 20 m auf weniger als 5 m. ”EGNOS” soll alle europ¨aischen Staaten abdecken. Das System besteht aus drei Transpondern in geostation¨aren Satelliten und einem Bodennetzwerk von 34 Positionsbestimmungsstationen und vier Kontrollzentren, die alle untereinander verbunden sind. ”EGNOS” soll im Jahr 2004 betriebsbereit sein. Die zweite Phase ist das Projekt ”GALILEO” das einen sehr pr¨azisen, garantierten, weltweiten Positionsbestimmungsdienst bereitstellt. Es stellt zwar ein eigenes Satellitennavigationssystem dar, ist aber zugleich mit ”GPS” und ”GLONASS” interoperabel. In ”GALILEO” soll auch ”EGNOS” integriert werden. ”GALILEO” wird in Echtzeit Positionsbestimmungen liefern, deren Genauigkeit sich im Meterbereich befindet. Somit bietet dieses System die Voraussetzung f¨ ur viele neue Anwendungen die eine exakte Positionsbestimmung ben¨otigen wie zum Beispiel der ”VTG”. Vor allem soll das ”GNSS” viele M¨oglichkeiten im Bereich Sicherheit bieten (Zivielschutz, Luftfahrt, Verkehr,. . . ). Das komplette ”GALILEO” System wird aus 30 Satelliten und der dazu geh¨orenden Bodeninfrastruktur bestehen. Es wird eine gr¨oßere Genauigkeit gegen¨ uber dem jetzigen GPS haben und eine h¨ohere Zuverl¨assigkeit in allen geografischen Breiten

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

104

bieten. ”GALILEO” wird echte ¨offentliche Dienstleistung mit garantierter Kontinuit¨at bereitstellen und benutzerspezifische Anpassung erm¨oglichen. Die harmonische Nutzung der beiden Infrastrukturen bringt Vorteile hinsichtlich der Genauigkeit und der Sicherheit. Die Nutzer empfangen sowohl die GPSSignale als auch die GALILEO–Signale mit ein und demselben Empf¨anger. Wie beim GPS wird die Basisnutzung bei GALILEO umsonst sein. Das GPS von morgen wird m¨oglicherweise auch hochwertige Dienste anbieten, doch besteht keine Garantie, dass diese kostenlos sein werden, vor allem falls das GPS eine Monopolstellung inne hat. Bestimmte Anwendungen werden kostenpflichtig sein; diese erfordern eine hohe Dienstequalit¨at, die das derzeitige GPS nicht bieten kann.1 Von 2002 bis 2005 ist die Entwicklungs- und Validierungsphase geplant. Die Errichtungsphase soll von 2006 bis 2007 dauern, damit ”GALILEO” von 2008 an seinen kommerziellen Betrieb starten kann. Manche Beobachter halten die Satellitennavigation f¨ ur eine ebenso wichtige Erfindung wie die Uhr. So wie heutzutage jeder wissen muss, wie sp¨at es ist, wird in Zukunft niemand ohne die Ermittlung seines genauen Standorts auskommen.

4.5

Realisierung

Nach dieser allgemeinen Einf¨ uhrung, m¨ochte ich nun genauer auf die einzelnen Bereiche im Projekt eingehen. Das Projekt setzt sich neben der ”Objektdatenaufbereitung” grunds¨atzlich aus drei getrennt zu betrachtenden Teilen zusammen. Ein Teil ist die Positionsbestimmung mittels GPS–Ger¨at. Das Auslesen der Koordinaten und Richtungsdaten aus dem GPS–Gr¨at erfolgt mit Hilfe des Javapackages ”gpstool” u ¨ber die serielle Schnittstelle. Das GUI ist nach dem Start des ”VTG” am Client, u ¨ber die URL ”http://localhost:10080/” im Browser aufrufbar. Voraussetzung daf¨ ur ist ein installiertes ”JDK”. Der HTML–Code ist so einfach gehalten, das die Applikation mit jedem g¨angigen Browser funktionieren sollte. Außerdem ist durch die durchgehende Javaprogrammierung der ”VTG” plattformunabh¨angig. Zum Bereitstellen der Daten am Server und zur Datenaufbereitung werden wiederum javabasierte Klassen eingesetzt (”Mapserver”). Hier stehen zur Kommunikation ¨ mit dem Client, Javaservlets zur Verf¨ ugung. Uber diese Servlets werden die aufbereiteten Daten (Shapes und Zusatzinformation) aus der Datenbank geholt, in einen HTML–Code gepackt dann an den Client–Browser u ¨bergeben und dort angezeigt. In Abbildung 4.11 ist die Architektur der Softwareumgebung dargestellt.

4.5.1

Objektdatenaufbereitung

Wie schon zuvor erw¨ahnt, wurden vom Bauamt Graz die Katasterdaten des Bereiches Innenstadt und des Bereiches Inffeld kostenlos zur Verf¨ ugung gestellt. Diese Daten lagen im DXF-Format vor und mußten zurerst einmal mit einem CAD–Programm aufbereitet werden. Das heisst, es mußten Objekte definiert, dann Zusatzinformationen hinzugef¨ ugt und schließlich die Daten ins SHAPE–Format umgewandelt werden. Um f¨ ur ein Geb¨aude nicht mehrere Objekte zu bekommen, mußten die einzelnen Polygonz¨ uge zu einer sogenannten 1

http://europa.eu.int/comm/dgs/energy transport/galileo/index de.htm

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

105

Abbildung 4.11: Architektur der Softwareumgebung

Objektgruppe, zusammengef¨ uhrt werden. Danach kann man den einzelnen Objekten spezifische Informationen hinzuf¨ ugen (siehe Abbildung 4.12). Das weitaus gr¨oßere Problem war die Tatsache, daß das vorliegende Koordinatensystem im dxf–File nicht verwendet werden konnte, und deshalb eine Koordinatentransformation n¨otig war. Dies hat sich als das schwierigste aller Probleme herausgestellt. Es ist auch bei guten Grundkenntnisse u ¨ber Koordinatensysteme zu empfehlen, professionelle Hilfe in Anspruch zu nehmen. Solch eine Unterst¨ utzung kann man zum Beispiel am Institut f¨ ur Geoinformationswissenschaften der TU-Graz bekommen. Was war genau das Problem? Die Katasterdaten lagen im Gauß–Kr¨ uger–Koordinatensystem vor, und diese mußten in das WGS84–Koordinatensystem umgewandelt werden, um die Daten f¨ ur die Anwendung nutzen zu k¨onnen. Die Transformation stellt das verwendete CAD–Programm zu Verf¨ ugung (AutoCAD Map R2). Es waren jedoch nicht die richtigen Parameter unter den vorinstallierten Konfigurationen enthalten. So mußte man zuerst die richtigen Parameter finden und mit diesen die korrekten Transformationseinstellungen festlegen. Folgende Parameter waren also richtig einzugeben. ˆ Die richtige ”Projektion” (Transverse Mercator) ˆ Das richtige ”Datum”

– Den richtigen ”Ellipsoid” (Bessel 1841) – Die ”Vector Component Deltas” zu WGS–84 (Delta X, Delta Y, Delta Z) – Die ”Winkel” vom WGS–84 (X Achse, Y Achse, Z Achse) – ”Scalierungs–Faktor”

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

106

Abbildung 4.12: Objektdaten Definition mit Hilfe von ”AutoCAD Map”

ˆ Das richtige ”Northing” und ”Easting” ˆ L¨ angengrad des ”Zentral Meridian” ˆ Breitengrad des ”Ursprungs der Projektion” ˆ Den ”Scale Reduction Factor” am ”Zentralen Meridian”

Hat man schließlich die richtigen Parameter gefunden, so kann man die Kartendaten einfach ins Shape–Format exportieren. Diese Daten m¨ ußen dann in das Datenbankmodell gebracht werden. Ein im Internet frei erh¨altliches Java Package (”geotools”) erm¨oglicht es, s¨amtlich Daten, wie Koordinaten und Attribute, aus den Shapefiles auszulesen. Mit der Klasse ”MapToDatabase” k¨onnen die Daten in die Datenbank eingelesen werden. Folgender Programmcode zeigt das Bef¨ ullen der Datenbank mit den Kartendaten. [GS01]

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

import import import import

107

java.io.*; java.net.*; java.util.Properties; java.sql.*;

import uk.ac.leeds.ccg.geotools.*;

// importiert das geotool package

public class ReadTest implements Serializable { public static void main(String[] args) { try { // Grazer Daten; mit Angabe von Sourcepfad und prop.txt File MapToDatabase map_to_db = new MapToDatabase("C:/gis_daten/kataster_koord-WGS84", "prop.txt"); // Die DB Verbindung initialisiert map_to_db.initDbConnection(); // Neue DB anlegen map_to_db.createNewDb("TestDB"); // Vektordaten in DB schreiben map_to_db.writeShapeFileToDb(); // Vektordaten und Eigenschaften in DB schreiben map_to_db.writeShapeAndDbfFileToDb(); } catch ( MapToDatabaseException e ) { System.out.println( e.getMessage() ); return; } } }

4.5.2

VTG

Der VTG ist ein kompaktes Java–Tool, welches am Client gestartet wird. Es stellt das Framework f¨ ur die Daten Ein– und Ausgabe zur Verf¨ ugung. Der VTG beinhaltet auch die Abfrage der GPS–Daten mit Hilfe des GPS–Tools. Nach dem Start dieser Java–Anwendung steht dem User ein GUI zur Verwendung der Applikation zur Verf¨ ugung. Mit einen beliebigen Web–Browser kann man unter der Adresse http://localhost:10080/index.htm die Touristguide–Anwendung aufrufen. Im linken Frame werden neben den Koordinaten (Longitude, Latitude) auch die Richtung (Heading) und die Sichtweite (Viewing Range) angezeigt (siehe Abbildung 4.13). Zus¨atzlich besteht auch die M¨oglichkeit, die im SVG anzuzeigenden Daten auszuw¨ahlen

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

108

(Mapkey, Name, Description, URL) (siehe Abbildung 4.13 rechts).

Abbildung 4.13: ”GPS–Daten” und ”Viewing Range” (links); ”Objekt–Information” (rechts)

Zum Laden der aktuellen Daten gibt es einen ”Neue Werte” Button. Einen ”Default” Button gibt es um die Defaultwerte zu laden. Und schließlich gibt es einen ”Was ist das?” Button zur Datenbankabfrage, um das Ergebnis mit den interessanten Objekten im rechten Frame anzuzeigen. Das rechte Frame ist als Tabelle aufgebaut, und zeigt das Ergebnis als SVG–Bild sowie die im Sichtkegel liegenden Objektbezeichnungen nach Entfernung zum Betrachter sortiert (siehe Abbildung 4.14). Je nach Wunsch k¨onnen die ”Shapes”, der ”Text” und die ”View Area” im SVG ein– und ausgeblendet werden. Ist zu einem Objekt auch eine URL in der Datenbank hinterlegt, so wird die Objektbezeichnung mit diesem Hyperlink hinterlegt. Durch anklicken der Objektbezeichnung wird ein neues Browserfenster ge¨offnet um zus¨atzliche Informationen zum Objekt direkt aus dem Internet zu beziehen. Folgende hilfreichen Informationen k¨onnte man zum Beispiel anzeigen. ¨ ˆ Offnungszeiten von Museen, Restaurantes, Shops,. . . ˆ Men¨ ukarte einer Pizzeria oder ¨ahnliches ˆ Aktuelle Auff¨ uhrung eines Theaters, Oper, Kino,. . .

4.5.3

GPSTool

Dieser Teil besch¨aftigt sich mit dem Auslesen der Positions– und Richtungsdaten aus dem GPS–Ger¨at. Das in Java programmierte Tool, liest die Daten die u ¨ber die serielle Schnittstelle kommen ein und wertet diese aus. Das GPS–Ger¨at von Garmin, es ist ein Garmin–Summit, gibt die Daten im eigenen Garmin–Protokoll aus. Das GPS–Tool kann sowohl das Garmin eigene NMEA–Protokoll als auch das standartisierte NMEA–Protokoll lesen und ist somit auch f¨ ur andere Ger¨ate verwendbar. NMEA (National Marine Electronics Association)

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

109

Abbildung 4.14: Darstellung der Daten einer Abfrage im Browser

Die Datens¨atze der unterschiedlichen Ger¨ate k¨onnen sehr viele verschiedene Informationen beinhalten, darunter Position, Geschwindigkeit, Richtung, Wassertiefe, Wassertemperatur, Wegpunkte, Windgeschwindigkeit usw.. Die f¨ ur das Projekt VTG ben¨otigten Datens¨atze sind wie folgt definiert. GPGLL gibt die geografische Position also Latitude und Longitude im NMEA Protokoll an. GLL – Geografische Position – Breitengrad/L¨angengrad (Latitude/Longitude) Feld:

1 2 3 4 5 6 7 | | | | | | | Satz: GLL,llll.ll,a,yyyyy.yy,a,hhmmss.ss,A*hh Erkl¨ arung der Feldnummern: 1) Breitengrad (Latitude) 2) N = Nord oder S = S¨ ud (North oder South) 3) L¨ angengrad (Longitude) 4) E = Ost oder W = West (East oder West) 5) Zeit (UTC - Universal Time Coordinated) 6) Status: A - Daten G¨ ultig, V - Data Ung¨ ultig 7) Pr¨ ufsumme (Checksum) HCHDG ist das ”Heading” sprich die Richtung in die das GPS zeigt. Der HCHDG-

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

110

Datensatz enth¨alt Angaben vom Magnetkompass, den nur wenige GPS-Ger¨ate besitzen. Es sind Daten zur Richtung und Deklination (auch als ”deviation” bezeichnet; Abweichung von magnetisch Nord zu wahrem Nord). HDG – Heading – Deviation & Variation (Abweichung & Schwankung) Feld:

1

2

3 4 5 6 | | | | | | Satz: HDG,x.x,x.x,a,x.x,a*hh Erkl¨ arung der Feldummern: 1) Magnetischer Richtungssensor (heading) in Grad 2) Magnetische Abweichung (Deviation), Grad 3) Magnetische Richtungsabweichung (Deviation direction), E = ¨ ostlich (Easterly), W = westlich (Westerly) 4) Magnetische Variation Grad 5) Magnetische Richtungsschwankung (Variation direction), E = ¨ ostlich (Easterly), W = westlich (Westerly) 6) Kontrollsumme (Checksum) Wichtig ist, dass das Datenformat des GPS auf NMEA umgestellt wird. Die Daten werden dann einmal alle zwei Sekunden u ¨ber die Schnittstelle ausgegeben. Viele PC-Navigationsund Kartenprogramme mit Anschlussm¨oglichkeit f¨ ur GPS-Empf¨anger erwarten im u ¨brigen auch das NMEA-Format zur Navigation. Funktioniert das Zusammenspiel zwischen GPS und einem PC-Programm nicht, sollte man also sowohl kontrollieren, ob man den GPS an der richtigen seriellen Schnittstelle (COM1 oder COM2) angeschlossen hat, als auch u ufen, ob das Ausgabeformat am GPS auf NMEA eingestellt ist. ¨berpr¨ Kurz ein Beispiel f¨ ur das Format der f¨ ur das Projekt relevanten Daten aus dem GPS– Ger¨at. GPGLL,4703.5275,N,01527.4968,E,082132,A,A*4A HCHDG,340.6,,,2.5,E*2F Der Wert 4703.5275 im NMEA–Format bedeuten 47 Grad 03.52 Minuten (latitude) und der Wert 01527.4968 sind 15 Grad 27.49 Minuten (longitude). Nach dem Einlesen der NMEA–Daten, werden die f¨ ur die Anwendung ben¨otigten Werte in WGS–84–Daten umgewandelt. Somit ergeben sich im WGS84-System: 47,058791 Grad Northing (Breitengrad auf der Nordhalbkugel) und 15,458285 Grad Easting (L¨angengrad ¨ostlich des Nullmeridians). Schließlich werden die erfassten Daten wie folgt ausgegeben: EVENT: source: Name : Old : New : POS : HDG :

org.dinopolis.gpstool.GPSNmeaDataProcessor@13dee9 GLL GPGLL,4703.5274,N,01527.4968,E,082132,A,A*45 GPGLL,4703.5275,N,01527.4968,E,082132,A,A*4A 47.058791666666665N 15.458285E 340.6

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

111

Wichtig f¨ ur die Touristguide–Anwendung sind die Position (POS ¯latitude, longitude) sowie ¯ die Richtung (HDG heading). Mit diesen Werten kann man vom Betrachterstandpunkt einen Sichtkegel in die angezeigte Richtung berechnen und die darin liegenden Objekte bestimmen. Die Webserver–Applikation u ¨bergibt die Werte dem Mapserver, der sich aus der Datenbank die erforderlichen Daten zur Darstellung des Ergebnisses holt. Die Verbindung zwischen Webserver (Client) und Mapserver (Server) wird u ¨ber das Internet hergestellt. Mit Hilfe von Java–Servlets werden die Daten ausgetauscht und das Ergebniss im Browser angezeigt. Die Funktionsweise der Mapserver–Anwendung wird im folgenden Abschnitt erl¨autert.

4.5.4

Mapserver

Der MapServer ist sozusagen das Herzst¨ uck am Server, der die Daten in der Datenbank verwaltet, auswertet und das Ergebnis einer Anfrage dem Client wieder u ¨bergibt. Die Kartendaten (Shapefile) werden mit Hilfe des Java–Programm ReadTestData.java in eine Datenbank (MySQL) geschrieben. Liegen die Daten vor, k¨onnen sie dann mit den vorliegenden Klassen abgefragt und ausgewertet werden. Die Schnittstelle zum Client wurde mit Java–Servlets realisiert. [GS01] Folgende Java–Servlets dienen zur Anzeige und zum Datenaustausch u ¨ber einen beliebigen Web–Browser. ˆ ShowHTMLPoint.java // Erstellt die Anzeige f¨ ur das SVG–Bild und die Objektinformation ˆ ShowSVGPoint.java // Bereitet die Daten f¨ ur das SVG–Bild auf

Die verwendete Datenbankstruktur ist in Abbildung 4.15 zu sehen.

Abbildung 4.15: Aufbau der Datenbank f¨ ur den VTG

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

112

Um die angefragten Daten aus der Datenbank zu holen und diese aufzubereiten, stehen folgende Java–Klassen zur Verf¨ ugung. ˆ Category.java – Um die m¨ oglichen Kategorien abzufragen ˆ ClipPolygon.java – Zum Erkennen von Polygonz¨ ugen ˆ DatabaseToSVG.java – Liest Shapes von der Datenbank und erzeugt SVG–Files ˆ FindShape.java – Damit k¨ onnen Shapes in der Sichtrichtung gefunden werden ˆ GIS.java – Stellt das Main–Programm dar ˆ MapToDatabase.java – Zum Importieren von Shapefile–Vektordaten in die Datenbank ˆ Point.java – Zum Darstellen eines Punktes ˆ Property.java – Gibt die Eigenschaften eines Shapes zur¨ uck ˆ ReadTest.java – Einlesen von Daten in die Datenbank ˆ Rectangle.java – Gibt ein Rechteck zur¨ uck ˆ Shape.java – Gibt ein Shape zur¨ uck ˆ ShowCategory.java – Wird ben¨ otigt um die Kategorien aus der Datenbank zu holen

Im prop.txt stehen notwendige Daten f¨ ur den Datenbankzugriff sowie f¨ ur die anzuzeigenden Objekteigenschaften. Hier ein Beispiel eines Property–File wie es am Server angegeben wird. database = jdbc:mysql://localhost/mapserver // Datenbank Name sql_driver = org.gjt.mm.mysql.Driver // SQL Treiber f¨ ur Java Zugriff user = vtg // MySQL Benutzer f¨ ur Lesezugriff passwd = test superuser = root // MySQL Benutzer f¨ ur Schreib/Lesezugriff supasswd = found_category = NAME // Angezeigte Kategorie f¨ ur gefundene Objekte im Servlet found_category_2 = URL svg_width = 600 // Einstellung f¨ ur die SVG-Ausgabe im Servlet font_size = 8 In Abbildung 4.16 ist die gesammte Datenbank mit einem Teil der Daten aus der Property– Tabelle zu sehen.

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

113

Abbildung 4.16: Datenbank mit angezeigten Propertyeintr¨agen

Algorithmus fu ¨ r Objektsuche Um bei der Datenbankabfrage die betreffenden Objekte im Sichtkeil zu finden, ben¨otigt man einen Algorithmus der den Keil des Blickfeldes durch Rechtecke ann¨ahert. Punkte die in einem Rechteck liegen k¨onnen leicht in einer Datenbank gefunden werden. Die Approximation des Blick–Kegels erfolgt nach folgender Skizze (siehe Abbildung 4.17). Die Konstante ”interation count” legt die Anzahl der Rechtecke fest, die den Keil des Blickfeldes ann¨ahern. Mit ”interation angle” wird der Winkel des Blickfeld–Keils eingestellt. Durch ”border” kann der Rand, der bei der Ausgabe des SVG–files den Keil umgibt, definiert werden. [GS01] In Abbildung 4.18 ist noch einmal der softwareseitige Ablauf einer Objekterkennung dargestellt.

4.5.5

Testumgebung

Getestet wurde die Anwendung mit zwei PCs die u ¨ber ein LAN verbunden waren, einer diente als Server und einer als Client. Die LAN–Verbindung sollte im Echtfall die Internetverbindung zum Beispiel u ¨ber GSM darstellen. Diese Variante war jedoch nur mit den bereits vorbereiteten GPS–Testdaten m¨oglich. Die Testdaten wurden mit einem Laptop

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

114

Abbildung 4.17: Approximation des Blickfeldes durch Rechtecke

sammt angeschlossenem GPS–Ger¨at erstellt. Die Daten konnten mit Hilfe des GPS–Tool in ein flat–File gespeichert werden, das dann zu Testzwecken als GPS–Ger¨at fungierte. Dieser Laptop konnt mit den installierten Serverkomponenten auch als unabh¨angiges System verwendet werden, das heisst ohne mit dem gesamten Equipment umherlaufen zu m¨ ussen. Server: ˆ Jarkata Tomcat (Servletengine) ˆ Mysql – Datenbank mit Kartendaten ˆ JDK – Java Developement Kit ˆ Mapserver (Java–Klassen und Servlets f¨ ur die Datenbereitstellung) ˆ prop.txt – Property Textfile f¨ ur die Datenbankabfrage

Client: ˆ GPS–Ger¨ at mit elektronischer Richtungsangabe (ETrex Summit von Garmin) ˆ GPSTool (Javaprogramm zum Auslesen der GPS–Daten) ˆ JRE – Java Runtime Environment

KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)

115

Abbildung 4.18: Ablauf einer Objekterkennung

ˆ VTG (GUI mit GPS–Datenschnittstelle und Serverabfrage) ˆ Direkte Netzwerkverbindung (bei Testbetrieb mit eigenem Server) ˆ SVG–Viewer–Plugin zum Anzeigen eines SVG–Bildes im Browser

Abschließend kann man sagen, daß ein gutes Funktionieren nur mit entsprechend genauen GPS–Daten gegeben ist, was derzeit in manchen Stadtbereichen nicht m¨oglich ist. Zum Beispiel ist die Grazer Herrengasse zwar eine breite offene Straße, der schlecht Empfang von GPS–Signalen kann jedoch eine Ungenauigkeit von bis zu 30m ausmachen, was eine sinnvolle Anwendung des VTG unm¨oglich macht. In diesem Fall kann man nur auf eine Schnelle Verbesserung der GPS–Genauigkeit durch das EU–Projekt ”GALILEO” hoffen.

Kapitel 5 Schlußworte Es ist nicht ein Ph¨anomen von Heute, sondern es ist seit jeher das Bestreben des Menschen, Werkzeuge und Alltagsger¨ate immer wieder zu verbessern. Im Zusammenhang damit steht neben dem Verkleinern von Ger¨aten auch das Verbessern der Bedienbarkeit. Dadurch entstanden schon einige sonderbare Hilfsmittel, aber auch bahnbrechende Entwicklungen in allen Lebensbereichen. Das Bestreben des Menschen immer bessere L¨osungen zu finden, betrifft nat¨ urlich auch das Medium Computer. Viele unorthodoxe Ein/Ausgabe-Ger¨ate werden immer wieder entwickelt, um die Bedienbarkeit verschiedenster Computerunterst¨ utzter Ger¨atschaften zu verbessern bzw. zu optimieren. ¨ In dieser Arbeit wurde ein Uberblick u unftige Entwick¨ber vergangene, heutige und zuk¨ lungen von unorthodoxen Eingabe sowie Ausgabe-Ger¨aten gegeben. Die Arbeit richtete ihr Hauptaugenmerk auf den Bereich ”Wearable Computer”. Es wurden Beispiele von Anwendungen angesprochen, die es bereits in der Praxis gibt bzw. solche die m¨oglicherweise die Zukunft des menschlichen Alltags entscheidend beeinflussen werden. Beeinflussen im Sinne vereinfachen, effizienter gestalten, mehr Freiheiten gebend, mehr Zeit f¨ ur das Wesentliche finden, mehr Wissen ohne es zu wissen,. . . Im Projekt ”Virtual Tourist Guide” wird eine Anwendungsm¨oglichkeit eines tragbaren, allgegenw¨artigen Computersystems (Wearabel Computer) gezeigt. Es ist eines von vielen m¨oglichen Anwendungsgebieten im Bereich des Wearable Computing. Mann kann leicht erkennen, wie diese Technologie dem User unbemerkt eine große Hilfestellung leisten kann. Genau so wie Laptops die Arbeit in vielen F¨allen erleichtern, werden diese neuen Errungenschaften das Arbeitsleben aber auch das Privatleben der Menschen ver¨andern. Ja auch Hund und Katz werden von diesen neuen M¨oglichkeiten betroffen sein. So kann man gespannt sein was die Zukunft in dieser Hinsicht noch alles bringen wird. Oder man versucht die Zukunft mit zu gestalten indem man sich seine eigenen Gedanken dar¨ uber macht, und aktiv in diesen Bereichen mitarbeitet.

116

Kapitel 6 Anhang 6.1

Linkliste

S¨amtliche hier angegebenen Referenzen wurden zuletzt am 28.01.2004 auf Erreichbarkeit u uft. Diese Linkliste dient der Vertiefung von den in dieser Thesis behandelten The¨berpr¨ menbereiche. Sie ist jedoch nicht als vollst¨andige Auflistung aller Referenzen in diesen Bereichen zu sehen.

6.1.1

Akademie & Forschung

CMU – Wearable Computers http://www.cs.cmu.edu/afs/cs.cmu.edu/project/vuman/www/home.html Computer Science Research at Almaden http://www.almaden.ibm.com/software/ Department of Cybernetics http://www.cyber.rdg.ac.uk/ DFKI http://www.dfki.de/ DigCity – TU Graz http://www.digcity.TUGraz.at/ Fraunhofer IPSI – Abteilung Ambiente – Dr Dr Norbert Streitz http://ipsi.fhg.de/ambiente/ Gatech – Georgia Institute of Technology http://wearables.gatech.edu/ Human–Computer Interaction Institute http://www.cs.cmu.edu/afs/cs.cmu.edu/user/hcii/www/hcii-home.html MemoClip–Remembrance Appliance http://www.teco.edu/~michael/publication/memoclip/ New Challenges of Ubiquitous Computing and Augmented Reality http://www.teco.uni-karlsruhe.de/~albrecht/cabernet/ubicomp1.html Personal Electronics http://www.ele.tut.fi/research/virtual/welcome.html Software Groupe – TU–Linz – Institut f¨ ur praktische Informatik – Ferscha http://www.soft.uni-linz.ac.at/Research/ The Telecooperation Office (TecO) http://www.teco.edu UO Wearable Computing Group http://www.cs.uoregon.edu/research/wearables/

117

KAPITEL 6. ANHANG

118

Wearable Computing at the MIT Media Lab http://www.media.mit.edu/wearables/ WearLab – Netzwerk Wearable Computing http://www.wearlab.de/

6.1.2

Arbeitskreise & Symposien

ACM – sigmobile http://www.acm.org/sigmobile/ Bremer XYBERDAY http://www-agki.tzi.de/is/mobile/XyberDay/intro.html Digital Life Consortium http://dl.www.media.mit.edu/ ISWC International Symposium on Wearable Computers http://iswc.gatech.edu/ SmartKom – Projekt – Interaktion von Mensch und Technik http://smartkom.dfki.de/startde.html Pervasive 2004 http://www.pervasive2004.org/ TecO - Wearable Computing Group http://wearables.teco.edu/ Telecommunications and Mobile Computing http://www.tcmc2001.at/ www.mobile-pc.org http://www.mobile-pc.org/ wearables.org http://wearables.org/

6.1.3

Unorthodoxe Ein-Ausgabeger¨ ate

Origin Instruments Corporation http://www.orin.com SensorTeppich http://www.acm.org/sigchi/chi97/proceedings/short-demo/jp.htm#U5

Tastatur und Maus FingerWorks - Inventor and Developer of MultiTouch Technology http://www.fingerworks.com Handykey Corporation http://www.handykey.com Matias Corporation http://halfkeyboard.com/ Mice revolution. New cordless mouse. http://www.bosswave.com/mouse/finring/ Nailglove http://web.mit.edu/smascaro/www/research.htm RingMouse http://members.tripod.co.jp/nis/computer/dosvparts/ringmouse.htm Scheibentastatur - Pendragon Project http://www.cc.gatech.edu/fce/pendragon/index.html DataHand Systems, Inc. Manufacturer of Ergonomic Keyboards and Onboard Mouse Systems http://www.datahand.com

KAPITEL 6. ANHANG

Spracherkennung Dragon Voice Recognition Products http://www.worklink.net/products/voicerecognition.html Linguatec Sprachtechnologien GmbH http://www.linguatec.de/ Speechwear – A mobile speech system http://www.speech.cs.cmu.edu/rspeech-1/air/papers/speechwear/speechwear.html The Speech Interface Group http://www.media.mit.edu/speech/ Learnhard Haunspie – Softwarel¨ osungen zur Text–, Bild– und Sprachbearbeitung http://www.scansoft.de/ Verbmobil http://verbmobil.dfki.de/

Display A head-mounted three-dimensional display http://www.sun.com/960710/feature3/alice.html ComSonic Inc. – Head Mounted Display http://www.headmountdisplay.com/ Electronic Paper Xerox http://www.parc.xerox.com/dhl/projects/gyricon/ MicroOptical http://www.microopticalcorp.com/ Microvision http://www.mvis.com Personal Monitor http://www.skyex.com/albatech/ The MicroDisplay Corporation http://www.microdisplay.com/ WearComp – Eyetap http://eyetap.org/

GPS und Karthografie GIS-News Geo-Informationssysteme, Neuigkeiten, Austauschformate, Tips, Wissen http://www.gis-news.de/ Allgemeine Information u ¨ber GIS http://www.plan.at/ ZGIS – Zentrum f¨ ur Geographische Informationsverarbeitung Salzburg http://www.ZGIS.at/ GPS Receiver – Software and Hardware Reviews of Garmin, Lowrance and Magellan http://joe.mehaffey.com/ Welcome to Adventure GPS http://www.gps4fun.com/ NMEA – HowTo for EPS http://www.diku.dk/users/elgaard/eps/help.html#comm Software – Koordinaten Converter–GeoTrans und mehr http://164.214.2.59/GandG/geotrans/geotrans.html Software – FreeGIS http://www.freegis.org/ Software – tools, tips and tricks http://gis.nrcan.gc.ca/~don/jwz/pages/tools.html

119

KAPITEL 6. ANHANG

Kleidung ElekTex – Electgrotextiles http://www.electrotextiles.com/ ETH Z¨ urich – Electrotextiles http://www.wearable.ethz.ch/index.php?textiles Lunardesign http://www.lunardesign.com/

Verschiedenes Digital Compass http://www.imagesco.com/catalog/DigitalCompass/DigitalCompass.html Dinsmore Sensors http://www.dinsmoresensors.com/ Geruch – Givaudan http://www.givaudan.com Handschrifterkennung – Stiftbewegungs Sensor – Pegasus http://www.pegatech.com/ Measurement Specialties, Inc. – Pressure Transducers, Sensors Gauges http://www.msiusa.com/sensors.htm mouse, touchpad, epad pen input pad, keyboard, joystick, remote control, http://www.interlinkelec.com/

6.1.4

Wearable Computer

Borg http://science.ksc.nasa.gov/payload/projects/borg/applic.html Charmed Technology http://www.charmed.com Operating system software, components, tools, applications and solutions for wearable http://www.wearix.com Tek Gear Products for wearable computing. http://www.tekgear.ca/ Thad Starner http://www.cc.gatech.edu/fac/Thad.Starner/ Ubicomp.com http://www.ubicomp.com/ Ubiquitous Computing – The Computer for the 21st Century http://www.ubiq.com/hypertext/weiser/UbiHome.html Wearables Central http://wearables.blu.org/ Wearable Technology http://www.wearablecomputing.com/ Xybernaut – The leader in wearable computers http://www.xybernaut.com/home.htm

120

Bibliography [AAH+ 96] G. D. Abowd, C. G. Atkeson, J. Hong, S. Long, R. Kooper, and M. Pinkerton. Cyberguide: A mobile context-aware tour guide. Technical report, Geogia Institute of Technology, Atlanta, Graphics, Visualization and Usability Centre, College of Computing, 1996. [Ado01]

Adobe. Skalierbare Vektor Grafiken, 2001. http://www.adobe.de/web/features/svg/faq.html.

[And95a]

Ross Andrew. The New Smartness. Gretchen Bender/Timothy Druckey (ed.): Cultures on the brink. Ideologies of technology., Seattle, 2. Auflage:329–341, 1995.

[And95b]

Ross Andrew. The New Smartness. Gretchen Bender/Timothy Druckey (ed.): Cultures on the brink. Ideologies of technology., Seattle, 2. Auflage:331, 1995.

[Bau97]

M. Bauer. Vermessung und Ortung mit Satelliten. NAVSTAR-GPS und andere satellitengest¨ utzte Navigationssysteme. Eine Einf¨ uhrung in die Praxis. Heidelberg, Wichmann, 4. Auflage, 1997.

[Bre93]

K. Bretterbauer. GPS–Punktbestimmung f¨ ur geod¨atische Anwender – Theoretische Grundlagen, 1993. Workshop der Firma AGIS,Wien.

[Com67]

Bell Helicopter Company. Alice, 1967. http://www.sun.com/960710/feature3/alice.html.

[DA99]

A. K. Dey and G. D. Abowd. Toward a better understanding of context and context-awareness. Technical report, GIT, GVU, June 1999. GIT-GVU-99-22.

[DA00]

A. K. Dey and G. D. Abowd. The context toolkit: Aiding the development of context-aware applications. Technical report, SEWPC, Limerick, Ireland, June 6 2000. Proceedings of the Workshop on Software Engineering for Wearable and Pervasive Computing (SEWPC).

[Dal01]

Christof Dallermassl. Multimediale Informationssysteme. Technical report, IICM, TU-Graz, 2001. Skriptum der Vorlesung MMIS an der TU-Graz, IICM, http://courses.iicm.edu/mmis/.

[Des01]

Lunar Design. Blu Concept, 2001. http://www.lunardesign.com.

121

BIBLIOGRAPHY

122

[Dig03]

DigiScents. Geruch, 2003. http://www.digiscents.com/.

[ESR01]

ESRI. Shapefile Technical Description, 2001. http://www.esri.com/library/whitepapers/pdfs/shapefile.pdf.

[Fab99]

C. Faber. Immer wissen, wohin. Land der Berge, Heft 3, 118-121, 1999.

[FBN02]

Alois Ferscha, Wolfgang Beer, and Wolfgang Narzt. Location awareness in community wireless lans. Technical report, Johannes Kepler University Linz, 2002.

[Fer00]

Alois Ferscha, editor. Workspace Awareness in Mobile Virtual Teams. Proceedings of the 9th International Workshops on Enabling Technologies: Infrastructures for Collaborative Enterprises (WETICE 2000), IEEE Computer Society Press, 2000. 272-277.

[Fer01a]

Alois Ferscha, editor. Integrating Pervasive Information Acquisition to Enhance Workspace Awareness, EUROMICRO 2001, February 2001. Proceedings of the 9th Euromicro Workshops on Parallel and Distributed Processing, IEEE Computer Society Press. 327-336.

[Fer01b]

Alois Ferscha, editor. Towards a Context-Aware Embedded Internet, number ¨ Nr. 26 in OVE Schriftenreihe, Wien, 2001. Proceedings of Informationstagung Mikroelektronik 2001. 445-456.

[Fer02]

Alois Ferscha, editor. Bridging Physical and Virtual Worlds, volume 2361 of Lecture Notes in Computer Science. Reliable Software Technologies - AE2002, (invited paper), Springer Verlag, Berlin, 2002. 51-64.

[Fer03]

Alois Ferscha, editor. Collaboration and Coordination in Pervasive Computing Environments. WETICE 2003, IEEE Computer Society Press, June 2003.

[FMS93]

Feiner, MacIntyre, and Seligmann. KARMA (Knowledge–based Augmented Reality for Maintenance Assistance). Technical report, -, 1993. http://www.cs.columbia.edu/graphics/projects/karma/karma.html.

[FPN+ 03] Alois Ferscha, Gustav Pomberger, Wolfgang Narzt, D. Korb, R. M¨ uller, J. Wieghardt, H. H¨ortner, and C. Lindinger, editors. Pervasive Information Acquisition for Mobile AR-Navigation Systems, Monterey, California, USA, October 2003. 5th IEEE Workshop on Mobile Computing Systems Applications. [FPSS01]

M. Fuchs, G. Prochart, G. Schall, and R. Steiniger. Nomadic computing. Technical report, Institut f¨ ur Technische Informatik, TU-Graz, 2001.

[FS02]

A. Ferscha and S.Vogl. The webwall, August 2002. UbiComp 2002 Workshop, Collaboration with Interactive Walls and Tables (CIWaT02).

[FVB02]

Alois Ferscha, Simon Vogl, and Wolfgang Beer, editors. Ubiquitous Context Sensing In Wireless Environments, 1-4020-7209-0. 4th DAPSYS (AustrianHungarian Workshop on Distributed and Parallel Systems), Kluwer Academic Publisher, 2002. 88-106.

BIBLIOGRAPHY

123

[FVP+ 03] A. Ferscha, J. Volkert, M. Pitra, S. Vogl, D. Kranzlm¨ uller, W. Narzt, V. Christian, and P. Heinzlreiter. Vrio (speech recongnition unit for natural interaction with immersive and pervasive multi-user cooperation environments). Technical report, Johannes Kepler University Linz, 2003. [Giv03]

Givaudan. Geruch, 2003. http://www.givaudan.com/.

[Gro03]

Software Group. Research of the Software Group, 2003. http://www.soft.uni-linz.ac.at/Research/.

[GS01]

P. Glantschnig and G. Schm¨olzer. Projektarbeit MapServer. Technical report, IICM, TU-Graz, September 2001.

[HG94]

G. Hake and D. Gr¨ unreich. Kartographie. Berlin, Walter de Gryter, 7.Auflage, 1994.

[H¨og96]

¨ N. H¨oggerl. DGPS - Service in Osterreich. Eich- und Vermessungsmagazin. Seite 30-35, 1996.

[Hoo65]

Robert Hooke. Micrographia, 1665. Hauptwerk von Robert Hooke. London.

[Hur89]

J. Hurn. GPS - A Guide to the Next Utility. Sunnyvale, Trimble Navigation, 1989.

[HWLC94] B. Hofmann-Wellenhof, H. Lichtenegger, and J. Collins. GPS - Theory and Practice. Wien; Springer; 3. Aufl., 1994. [Jac92]

W. Jachmann. GPS - Eine Einf¨ uhrung. Allgemeine Vermessungs Nachrichten. Heft 2, Seite 188-199., 1992.

[Leo98]

U. Leonhard. Supporting location-awareness in open distributed systems. Technical report, Department of Computing, Imperial College of Science, Technology and Medicine, University of London, 1998.

[LH02]

Linguatec and J. Hoepelman. Grundlagen der Spracherkennung, 2002. http://www.spracherkennung.de.

[Lin98]

W. Linke. Orientierung mit Karte, Kompaß, GPS: Grundwissen - Verfahren ¨ - Ubungen. Herford, Busse Seewald, 9. Auflage, 1998.

[Man98]

Steve Mann. WEARABLE COMPUTING as means for PERSONAL EMPOWERMENT, May 1998. http://wearcam.org/icwckeynote.html.

[Mec96]

H. Meckl. Einf¨ uhrung in die Landesvermessung und Topographie I+II. Skript der Vorlesung, Wien, 1996.

[MI90]

Gerald Maguire and John Ioannidis. IBM/Columbia Student Electronic Notebook Project. Technical report, IBM, T. J. Watson Research Lab., Yorktown Heights, NY, 29 June, 1990. Publiziert im IBM/Columbia Student Electronic Notebook Project.

BIBLIOGRAPHY

124

[Mic99]

MicroOptical. Heads-up display can be built into eyeglasses, 1999. http://www.eetimes.com/story/OEG19990420S0009.

[Mic03]

Microvision. Scanned-Beam Displays: How it Works, 2003. http://www.mvis.com/technology/displays_works.html.

[MIT ]

MIT. Beauty Show, -. http://www.media.mit.edu/wearables/lizzy/out-in-the-world/ beauty/index.html.

[MIT]

MIT. Wearables FAQ. Webpage. http://wearables.www.media.mit.edu/projects/wearables/FAQ/FAQ. txt.

[MIT03]

MIT. Wearable Computing, 2003. http://www.media.mit.edu/wearables/index.html.

[MR94]

Edgar Matias and Mike Ruicci. Wrist Computer with half–keyboard. Technical report, Universit¨at von Toronto, 1994. http://www.dgp.toronto.edu/people/ematias/papers/chi96/ http://www.almaden.ibm.com/cs/user/inddes/halfkb.html.

[Pre02]

Irene Preisinger. Ihr Computer steht Ihnen ausgezeichnet, 2002. http://www.stern.de/computer-technik/.

[PS93]

Doug Platt and Thad Starner. Lizzy. Technical report, MIT, 1993. http://wearables.www.media.mit.edu/projects/wearables/lizzy/.

[Rhe91]

Howard Rheingold. Virtual Reality, 1991. 49 – 67.

[Ric98]

Birgit Richard. Icons. Localizer 1.3. Berlin (Techno – Theorie)., 1998. Robert Klanten (Hrsg.).

[Sch94]

F. Schr¨odter. GPS satelliten-Navigation: Technik, Systeme, Ger¨ate, Funktionen und praktischer Einsatz. Poing, Franzis Verlag, 1994.

[See89]

G. Seeber. Satellitengeod¨asie. Grundlagen, Methoden und Anwendungen. Walter de Guyter, Berlin, 1989.

[See96]

G. Seeber. Grundprinzipien zur Vermessung mit GPS. Der Vermessungsingenieur. Heft 2, Seite 53-64., 1996.

[Sma03]

SmartCom. Dialogische Mensch-Technik-Interaktion durch koordinierte Analyse und Generierung multipler Modalit¨aten, 2003. http://smartkom.dfki.de/.

[Sta93]

Thad Starner. Remembrance Agent(RA). Technical report, MIT, 1993. http://www.media.mit.edu/~rhodes/Papers/remembrance.html.

[Sta00]

Thad Starner. Human powered wearable computing. Technical report, MIT, Massachusetts Institute of Technology, 2000. Perceptual Computing Section.

BIBLIOGRAPHY

125

[Ste86]

Bruce Sterling. Thorstein: Theorie der feinen Leute. Artificial Kid. London, 1990 Reprint Veblen, Bovenschen, Silvia (Hrsg.): Die Listen der Mode., Seattle, pages 106–155, 1986.

[Tea91]

CMU Team. VuMan, 1991. http://www.cs.cmu.edu/afs/cs.cmu.edu/project/vuman/www/home. html.

[Tec89]

Reflection Technology. Private Eye HMD, 1989. http://www.reflectiontech.com/.

[Tei01]

Wulf Teiwes. EyeMouse, ein großer Schritt in Richtung eines intuitiven User Interfaces, 2001. http://www.smi.de.

[Tri03]

TriSenx. Geruch, 2003. http://www.trisenx.com/.

[TZI a]

TZI. Nutzungsmodelle und Technologien f¨ ur den Einsatz von tragbaren Computern in der Inspektion. Technical report, Technologie-Zentrum Informatik der Universit¨at Bremen (TZI), -. http://www.dmn.tzi.org/de/winspect.html.

[TZI b]

TZI. WearLab; Themenzentrierte instituts¨ ubergreifende Forschungsgruppe. Technical report, Technologie-Zentrum Informatik der Universit¨at Bremen (TZI), -. http://www.wearlab.de/index.xhtml.

[Wei91]

Mark Weiser. The Computer for the 21st Century. Scientific American, pages 66 – 75, September 1991.

[Wel86]

D. Wells. Guide to GPS Positioning. Fredericton, 1986.

[Wer95]

H. Wernhart. Das Bundesmeldenetz in der ¨osterreichischen Karte. Eich und Vermessungsmagazin, Ausgabe 77:Seite 9–17, 1995.