Perspektiven der Informatik

Analyse und Definition der Anforderungen an die Softwareentwicklung), „Strukturierung“ ..... Zehn Prozent arbeiten in Beratung, Vertrieb und Verkauf, und.
163KB Größe 8 Downloads 458 Ansichten
Perspektiven der Informatik Heinrich C. Mayr1,2 und Jörg Maas1 1

2

Gesellschaft für Informatik e.V. Bonn, Wissenschaftszentrum {mayr|maas}@gi-ev.de Universität Klagenfurt, Institut für Wirtschaftsinformatik und Anwendungssysteme

Zusammenfassung Die Informatik ist zusammen mit der Informationstechnologie auf dem besten Weg, zur Leitdisziplin des 21. Jahrhunderts zu werden. Im vorliegenden Papier werden wichtige Perspektiven der Informatik-Forschung und Entwicklung sowie Einflußfaktoren und Handlungsvorschläge zu deren Verwirklichung aufgezeigt.

1 Einleitung „Informatik steht für etwas sehr Dynamisches und Faszinierendes: Wir erlebten in den letzten fünfzig Jahren die Geburt und das Aufblühen einer Wissenschaft, die fast alle Wissens, Arbeits- und Lebensbereiche nachhaltig verändert, und deren wirtschaftliche Branche, die Informations- und Kommunikationstechnik (IKT), sich schon nach nur drei Jahrzehnten auf dem ersten Platz aller Wirtschaftszweige in den Industriestaaten befindet.“ Dies schrieb Volker Klaus kürzlich in seiner Einführung für die Broschüre der Gesellschaft für Informatik (GI). Dementsprechend verlockend ist es natürlich, sich über die weiteren Perspektiven dieser Disziplin Gedanken zu machen. Dies um so mehr, wenn man berücksichtigt, dass die „wirtschaftliche Branche“ der Informatik sich ja in Wirklichkeit nicht auf die Informations- und Kommunikationstechnik beschränkt. Vielmehr umfasst sie auch das gesamte Feld der Planung, Entwicklung und organisatorischen Einbettung von computergestützten Verfahren und Softwaresystemen für beliebige Anwendungsbereiche und deren Geschäftsprozesse, welches im Zuge der sich dynamisch herausbildenden „network economy“, also der vernetzten Wirtschaft, noch zunehmen wird: Vom „elektronischen Handel“ (e-Commerce) über die vielfältigen Bereiche des e-Business, des e-Governments bis hin zum vernetzten Lehren und Lernen (Distance Education, e-learning etc.). Und schon in naher Zukunft wird neben das heute moderne „e-everything„ das „m-everything“ treten und alle e-Dienste auch über breitbandige mobile Netze und leistungsfähige mobile Endgeräte zugänglich machen. „Ubiquitous Computing“ wird dann Realität – die allgegenwärtige, aber häufig unsichtbare Informatik. Insofern ist es kein Wunder, wenn die Informatik seit einigen Jahren direkt oder indirekt (über das Modewort „IT“) in aller Munde ist: Selten wurde so viel über sie geschrieben wie angesichts der ungebremsten Nachfrage nach geeigneten Fachleuten, der damit verbundenen „Green Card“ Diskussion in Deutschland und der rapiden Zunahme an Firmen, die informatisches Wissen umsetzen. Vielstimmig ist der Chor von tatsächlichen und selbst ernannten Sachverständigen zu Fragen wie – Welche Art von Informatik-Forschung wird gebraucht, wer soll sie wie durchführen?

11

12

Heinrich C. Mayr und Jörg Maas

– Wie viele, welche und wie ausgebildete Fachkräfte werden gebraucht, wer soll sie heranbilden, was sollen die Bildungsinstitutionen, insbesondere die Universitäten leisten? Bei näherem Hinhören und Hinsehen merkt man jedoch, dass bereits bei der Frage nach dem, was die Informatik in ihrem Wesen eigentlich ausmacht, Uneinigkeit und zum Teil sogar Unkenntnis vorherrschen. So wird in den Medien – selbst die Fachzeitschriften und entsprechenden Fernsehmagazine sind hiervon nicht ausgenommen – eine Abgrenzung zwischen den Begriffen „Informatik“ einerseits und „IT“, „Informationstechnik“ und „Informationstechnologie“ andererseits so gut wie nicht vorgenommen. Eine Ausnahme betrifft die Informatik als Studiendisziplin, d.h. als Gegenstand von Lehre und Forschung an unseren Hochschulen; von Variationen in den Curricula und Schwerpunktsetzungen abgesehen, steht hier die Informatik nicht in Frage, selbst wenn in jüngster Zeit vor allem elektrotechnische Fakultäten zunehmend als „informatiknah“ bezeichnete IT-Studiengänge anbieten, bei deren näherer Betrachtung man feststellt, dass kaum „Informatik inside“ ist. Ein weiteres Indiz für Unkenntnis oder manchmal vielleicht auch etwas Ignoranz ist das Faktum, dass auch heute noch bei der Übersetzung ins Englische häufig der Begriff „Computer Science“ verwendet wird. Dieser schließt nämlich im Gegensatz zur Informatik u.a. den ganzen Bereich der betrieblichen Anwendungssysteme und ihres organisatorischen Umfeldes, also der Wirtschaftsinformatik und der ihr verwandten Gebiete aus, die zumindest in den USA vorwiegend unter dem Oberbegriff „Information Systems“ firmieren. Richtig wäre „Informatics“ (wie es etwa in Kanada und zunehmend auch in anderen angelsächsischen Ländern gebräuchlich ist). Zwar geschieht das alles vermutlich bzw. hoffentlich unbewusst, der Diskussion um die eigentlichen Belange der Informatik ist es aber nicht förderlich. Daher wollen wir im folgenden zunächst kurz das Wesen der Informatik beleuchten (Abschnitt 2), bevor wir in Abschnitt 3 deren Perspektiven aufzeigen. Wir konzentrieren uns dabei aus Platzgründen allerdings auf die kursorische Behandlung einiger ausgewählter Gebiete. Einen besonderen Fokus legen wir lediglich auf die Softwaretechnik (Abschnitt 4), da sie einen zentralen Bereich der Informatik ausmacht, nach wie vor vom stärksten Fachkräftemangel betroffen ist und auch in der Forschungspolitik noch immer nicht den gebührenden Stellenwert einnimmt. Abschnitt 5 befaßt sich mit einigen Einflussfaktoren, welche die Realisierung dieser Perspektiven beeinflussen. Dabei geht es vor allem um den Fachkräftemangel in Kerngebieten der Informatik. Welche Ausbildung hier benötigt wird, ist in Abschnitt 6 kurz aufgezeigt. Den Abschluss bildet Abschnitt 7 mit einer kurzen Darstellung des Wirkens der Gesellschaft für Informatik GI.

2

Was ist Informatik

Kurz gesagt ist die Informatik die Wissenschaft, Technik und Anwendung des systematischen Umganges mit Information. Dazu gehören insbesondere die automatisierte Verarbeitung, Speicherung, Darstellung und Übertragung von Information aus der Sicht der Hardware, der Software, der formalen Grundlagen, der Anwendungen und der Auswirkungen auf den einzelnen Menschen und auf die Gesellschaft.

12

Perspektiven der Informatik

13

Eine moderne Untergliederung unterscheidet die drei Bereiche – Grundlagen, die hier aus den verschiedensten Disziplinen stammen: aus den Formalwissenschaften, insbesondere der Mathematik und der Logik, aus den Natur- und Ingenieurwissenschaften, aus den Wirtschafts- und Gesellschaftswissenschaften, aber auch aus Bereichen wie der Linguistik oder der Erkenntnistheorie. Dies zeigt, dass die Informatik nicht nur von ihren Zielbereichen her gesehen eine Basis- und Querschnittsdisziplin ist, sondern bereits in ihren Grundlagen. – Informatiksysteme und deren Entwicklung, wobei hierzu sowohl Hardware- als auch Softwaresysteme bzw. deren Integration gehören. – Anwendung der Informatik auf andere Gebiete, beispielsweise in der Medizin, der Biotechnologie, der industriellen Produktion, der Abwicklung betrieblicher Geschäftsprozesse etc. Als grobe Abgrenzung der Informatik gegenüber der Informationstechnologie könnte man den stärker logisch abstrahierenden, software-orientierten Blickwinkel der Informatik gegenüber dem stärker auf die technischen Basiskomponenten ausgerichteten, von Nachrichten- und Elektrotechnik bzw. Elekronik geprägten Herangehen der IT heranziehen. Sicher gibt es hier und dort Überschneidungen, weil informatische Produkte typischerweise eben beides aufweisen und in sich vereinen. Deshalb erkennt die Informatik die Informationstechnologie als Teil- bzw. eng verbundene Nachbardisziplin an, während diese eher auf ihrer Eigenständigkeit besteht. Dennoch mag dieses unscharfe Raster zunächst als Orientierungshilfe ausreichen. Ungewöhnlich für eine in weiten Bereichen technische Disziplin ist die Aufspaltung der Informatik in formal-, gesellschafts- und ingenieurwissenschaftliche Anteile. Dies hat zur Folge, dass in ihr viele unterschiedliche (Arbeits-)Kulturen vertreten sind. Und das erklärt auch so manches Kommunikationsproblem, das Informatiker/innen miteinander haben. Immerhin müssen sie den Spagat vollziehen zwischen den „harten“ Bereichen, wie z.B. der Theorie, der Technischen Informatik (Rechnerarchitekturen, Netze) oder der Softwaretechnik, und den „weicheren“ Bereichen wie Rechts- und Verwaltungsinformatik, gesellschaftlichen (Informatik und Dritte Welt) oder ergonomischen Fragen (Schnittstellen) ihrer Disziplin. In den letzten Jahren hat mit dem Entstehen neuer Anwendungsbereiche eine Ausdifferenzierung in der Anwendung stattgefunden, die zu weiteren sogenannten „BindestrichInformatiken“ geführt haben. Ob das der Informatik und ihrem Ruf als Ganzes zugute kommen wird, ist noch nicht für alle neuen Fächer absehbar. Neben so erfolgreichen Ausgründungen wie der Wirtschaftsinformatik wird heute auch neueren Disziplinen wie der Bio- oder der Neuroinformatik eine glänzende Zukunft vorausgesagt, wobei dies von den Aussichten auf eine kommerzielle Verwertbarkeit der Forschungsergebnisse beflügelt werden dürfte. Den Impetus für neue (Anwendungs-) Fächer mögen teilweise auch die Klagen der Industrie über eine vermeintlich praxisferne Ausbildung an den Universitäten geliefert haben. Absolventinnen und Absolventen der Universitäts-Informatik finden aber trotz aller Kritik in der Regel problemlos einen Arbeitsplatz, und – einmal im Unternehmen – werden

13

14

Heinrich C. Mayr und Jörg Maas

die Jung-Informatiker/innen durchaus ob ihrer breiten analytischen Fähigkeiten und ihres Überblickswissens geschätzt.

3

Perspektiven

Als die USA auf Weisung des damaligen Präsidenten Clinton in den Jahren 1996/97 eine aus 26 Experten der Informatik und Informationstechnologie bestehende Kommission einsetzten, konnte noch niemand ahnen, dass das Ergebnis ihrer Arbeit so viel Beachtung finden würde – in den USA, aber auch in Europa. Diese Kommission firmierte als „President’s Information Technology Advisory Committee“, kurz PITAC, und veröffentlichte im Februar 1999 den sogenannten PITAC-Report, eine umfassende Analyse und Bewertung der Informatik mit allen ihren aktuellen und künftigen Auswirkungen auf Wirtschaft, Gesellschaft und Kultur. Detlef Schmidt und Manfred Broy, zwei anerkannte Professoren-Kollegen aus Karlsruhe und München, haben sich Anfang letzten Jahres im Informatik Spektrum1 die Mühe gemacht, die Ergebnisse des PITAC-Reports vorzustellen und mit den Schlussfolgerungen aus dem (von ihnen miterarbeiteten) „Walberberg-Memorandum“ zu vergleichen. Letzteres stellt die deutsche Antwort auf den PITAC-Report dar und zielt darauf ab, die Konsequenzen aus der bereits eingeleiteten Reaktion der Amerikaner in Folge des PITACReports aus deutscher Sicht zu beschreiben. Es enthält Szenarien und Vorstellungen, die insbesondere den Handlungsbedarf und bestehende Defizite verdeutlichen. 3.1 Forschungsfelder Die Autoren beider Reports bzw. Studien gehen davon aus, dass die Informatik mit der Informationstechnologie zusammen das zentrale Innovationsgebiet des 21. Jahrhunderts ist. „Sie wird Lebensweise, Ausbildung, Arbeit und Freizeit verändern, indem sie die Methoden des Geschäftslebens, der Forschung und der Kommunikation revolutioniert. Die Allgegenwärtigkeit der aus der Verschmelzung von Rechnern, Telefon und Medien entstehenden multimedialen Kommunikationsplattformen befreit von Ortsbindungen, ermöglicht kontinentübergreifende Kooperationen und macht neueste Erkenntnisse unmittelbar weltweit verfügbar.“2 Neben spezifischen Analysen zur Softwaretechnik, die im nächsten Abschnitt behandelt werden, definieren die Autoren vier Querschnittsthemen, in denen für alle Systemebenen besonderer Forschungs- und Entwicklungsbedarf geortet wird: – Digitale Modellierung und Simulation, – Hochleistungsinformationsverarbeitung, – Qualität, – Schutz der Privatsphäre und Sicherheit. 1 2

Schmid/Broy, in: Informatik Spektrum Band 23, Heft 2, April 2000, S. 109-117 Schmid/Broy, a.a.O., S. 109f.

14

Perspektiven der Informatik

15

Es wäre angebracht, auf jedes einzelne dieser Querschnittsthemen näher einzugehen, allein aus Gründen einer notwendigen Konzentration beschränkt sich dieser Beitrag auf deren Nennung. Hinsichtlich der Anwendungsdomänen besteht ein konkreter Forschungsbedarf überall dort, wo durch die gezielte Entwicklung und durch den erfolgreichen Einsatz von Informatik-Systemen Wettbewerbsvorteile erreicht werden können. Hierzu gehören – Business Support and Services, bei denen durch die Forschungstätigkeit die brach liegenden Potenziale im gesamten „E“-Bereich eröffnet werden sollten. Für die Wirtschaftsinformatik von besonderem Interesse nannte in diesem Zusammenhang Peter Mertens3 kürzlich die Entwicklung von Informatiksystemen zur Unterstützung von Unternehmensverbünden („Extended Enterprise“) sowie für die Optimierung von Customer Relationship Management (CRM) und Supply Chain Management. Hier stehen die komplexen Formen der Integration von Daten, Funktionen, Prozessen und Methoden im Vordergrund. Der Automatisierungsgrad in den Betrieben wird dadurch steigen, gleichzeitig wird sich eine menschenähnlichere und dem Menschen zugänglichere Form der Informationsverarbeitung entfalten. Neben einer höheren Produktqualität prognostiziert Mertens in diesem Zusammenhang auch das Entstehen neuer Berufsund Geschäftsmodelle, die es z.B. erlauben würden, dass sich Spezialisten voll auf die Ausbeutung ihres Wissens konzentrieren können. – Software in Produkten („embedded systems“), bei denen die Herausforderungen in den Anforderungen an das Echtzeitverhalten und in der verteilten Realisierung aus autonom arbeitenden Komponenten liegen. – das Aus-, Weiterbildungs- und Trainingsumfeld, das neuartige Konzepte zur Nutzung der aus dem „Human Centered Engineering“ stammenden Entwicklungen aufnehmen und verwirklichen muss. – Software für die Produktion, Verkehrstechnik und -telematik, das Gesundheitswesen mit dem Fokus auf der Einarbeitung datenschutzrechtlicher Aspekte und schließlich die Öffentliche Verwaltung, die durch den Einsatz von Informatik-Systemen effizient und bürgernah gestaltet werden soll4 . – die Bioinformatik, ein Forschungsgebiet mit großem Potenzial und angesichts der fortschreitenden Entschlüsselung des menschlichen Erbguts herausragenden Perspektiven. Im Rahmen der oben genannten Podiumsdiskussion hat Georg Casari von der LION bioscience AG einen Ausblick auf die Möglichkeiten dieser noch recht jungen Disziplin gegeben. Betrachtet man die Datenmengen, die von der Biologie und Biotechnologie heutzutage geliefert werden, ist verständlich, dass deren Speicherung, Auswertung und Verarbeitung nur durch die Anwendung informatischer Methoden 3

4

Podiumsdiskussion „Zukunftsfeld Informatik“ mit Dr.Georg Casari, Prof. Dr. Peter Liggesmeyer, Prof.Dr.Dr.h.c.mult. Peter Mertens, Prof.Dr.Dr.h.c. Heinrich C. Mayr (Moderation); 13. Mai 2001, Wissenschaftszentrum Bonn Als Vorbild geben Schmid und Broy die USA an, Stichwort dort: „Digital Government“, a.a.O., S. 115; in Deutschland spricht man in diesem Zusammenhang häufiger von „E-Government“, s.a. GI/ITG Memorandum „Electronic Government als Schlüssel zur Modernisierung von Staat und Verwaltung“, Bonn, September 2000; s.a.

15

16

Heinrich C. Mayr und Jörg Maas

leistbar ist. Dazu kommt, dass die dabei gewonnenen Ergebnisse Eingang in andere Bereiche finden und dort weiterverarbeitet werden, z.B. in der Medizin, und zwar insbesondere in der Diagnostik und Therapie bestimmter Krankheiten (Krebs, genetische Anomalien). Dementsprechend spielen Aspekte des Datenschutzes und der Datensicherheit in der Bioinformatik eine wichtige Rolle und werden die Perspektiven des Faches entscheidend mitbestimmen. Möglicherweise wird sich dieses Problem aber auch als Chance für alle sicherheitskritischen informatischen Anwendungen herausstellen, denn die Bioinformatik dürfte selbst das größte Eigeninteresse an der Lösung der Sicherheitsfrage haben. Ihr Erfolg wäre gleichbedeutend mit einem Durchbruch auch auf anderen Gebieten, die Übertragbarkeit der Lösungen vorausgesetzt. 3.2 Anforderungen an die Forschungspolitik Es wäre vermessen zu behaupten, die Forschungsförderung in der Bundesrepublik Deutschland oder auch der anderen europäischen Länder funktioniere problemlos und sei nur marginal verbesserungsfähig. In Wahrheit wird zwar viel gefördert, aber in der Regel nicht so, dass eine sinnvolle Schwerpunktsetzung überall erkennbar wäre. Genau diese aber wird gebraucht, um Stärken ausbauen und ausspielen zu können bzw. Schwächen mittelfristig abzubauen. Erforderlich ist daher eine Konzentration auf wenige, dafür aber gut dotierte Programme, die sowohl zunächst im Grundlagen- als auch später im Anwendungsbereich die nötige Durchschlagskraft und Nachhaltigkeit sichert. Diese „substanzielle Förderung“ sollte nicht zuletzt die Motivation der Forschenden zum Ziel haben, nicht deren Demotivierung, wie es heute leider noch oft üblich ist durch übertriebene Gängelung, mangelhafte Finanzausstattung und fehlende Prioritätensetzung. Stattdessen sollten der Freiraum der Forscher/innen erweitert und die ideellen und materiellen Fördergrundlagen deutlich ausgebaut werden, um optimale Bedingungen für diejenigen zu schaffen, die am Erfolg eines Forschungsprogramms maßgeblich beteiligt sind. Eine nicht zu unterschätzende Bedeutung wird auch dem politischen Willen zukommen, kleine und mittlere Unternehmen zu Kooperationen mit (universitären) Forschungs- und Entwicklungseinrichtungen zu bewegen; ein Impuls, der viel zur Stimulation der Wirtschaft mit positiven Auswirkungen auf die gesamte Forschungslandschaft beitragen könnte.

4

Perspektiven der Softwaretechnik

Welches Gewicht die Softwaretechnik für die Volkswirtschaft mittlerweile angenommen hat, darauf hat eine Untersuchung des Bundesministeriums für Bildung und Forschung (BMBF) hingewiesen, die für 1999 von einer Bruttowertschöpfung von ca. 50 Mrd. DM allein aus der Softwareentwicklung ausgeht5 . Bei einer erwarteten Wachstumsrate von 12% würden für das Jahr 2001 also ca. 62 Mrd. DM erreicht, womit die indirekte Wertschöpfung – und damit der Einfluss auf die wirtschaftliche Tätigkeit in Deutschland insgesamt – noch gar nicht erfasst ist6 . 5

Studie für das BMBF „Analyse und Evaluation der Software-Entwicklung in Deutschland“, Dezember 2000, S. 81; http://www.dlr.de/IT/IV/Studien/evasoft_abschlussbericht.pdf 6 Studie für das BMBF „Analyse und Evaluation der Software-Entwicklung in Deutschland“, S. 24

16

Perspektiven der Informatik

17

Das Thema Softwaretechnik ist aber nicht nur aufgrund der wirtschaftlichen Implikationen einer weiteren Vertiefung wert: Seit 1968 hat sich in der Softwaretechnik ein Paradigmenwechsel vollzogen, und zwar weg von der reinen Programmierkunst („Art of Computer Programming“) hin zu einer Übertragung von Prinzipien und Verfahrenstechniken der Ingenieurwissenschaften auf den Bereich der Softwareentwicklung. Die Neuerungen brachten Konzepte und Verfahren mit sich wie Requirements Engineering (die Ermittlung, Analyse und Definition der Anforderungen an die Softwareentwicklung), „Strukturierung“ (im Sinne strukturierter Programmierung), Objektorientierung (bei der Informatiksysteme analog zur Systemtheorie aus handlungsfähigen Objekten aufgebaut werden, deren Leistungen ausschließlich über definierte Schnittstellen abrufbar sind, und bei deren Definition Abstraktionsmechanismen wie Generalisation, Aggregation und Clusterbildung Anwendung finden), Validation und Verifikation, Prozessmanagement und AssessmentModelle, Total Quality Management (TQM) und schließlich das Risk Management. 4.1 Status Die erwähnte Studie bescheinigt den deutschen Forschungsinstitutionen und Hochschulen eine hohe Sach- und Umsetzungskompetenz und bezieht dabei auch die führenden Softwarehäuser sowie die Entwicklungsabteilungen in den Sekundärbranchen mit ein. Sie zieht daraus den Schluss, dass sich für Deutschland eine gute Ausgangsposition für die Erreichung einer internationalen Spitzenstellung ergebe, dies allerdings unter der Bedingung, dass die Grundlagenforschung im Hinblick auf Fundierung und Methodologie sowie die Fähigkeit zur Kooperation entsprechend verstärkt wird. Zur Statusanalyse gehört ferner die Feststellung, dass die Ausbildungsinhalte der Softwaretechnik in Deutschland besser seien als ihr zuweilen etwas angeschlagener Ruf. Nach unserer Kenntnis der Situation in Österreich und in der Schweiz sind wir der Überzeugung, dass sich diese Aussagen – unter Berücksichtigung der Größenverhältnisse – auch auf diese Länder übertragen lassen. So viel Lob verstellt allerdings leicht den Blick auf die Realität in den Unternehmen. Softwareentwicklung wird im deutschsprachigen Raum ganz überwiegend von kleinsten und kleinen, in selteneren Fällen auch mittelgroßen Unternehmen, also MKU’s und KMU’s betrieben7. Das bedeutet, dass der handwerkliche Aspekt in der ad-hoc-Entwicklung von Software allzu oft die Oberhand gewinnt über einen definierten und klar strukturierten Softwareentwicklungsprozess, wie er von einschlägigen F&E-Institutionen definiert und an den Hochschulen gelehrt wird. Dementsprechend werden moderne Methoden und Werkzeuge nur bei ca. 30% der Unternehmen in geeigneter Weise genutzt, was wiederum zu Zeit- und Budgetüberschreitungen führt, die den Anwendererwartungen und -bedürfnissen widerspricht. Verschärft wird die Situation dadurch, dass mehr als 50% der in der Softwareentwicklung Beschäftigten keine einschlägige Informatik-Ausbildung absolviert haben und man daher nicht von einem gesicherten Kenntnisstand insbesondere in den ingenieurwissenschaftlichen Feldern des Faches ausgehen kann. 7

MKU steht hier für „Mikro- und Kleinstunternehmen“, die 8.173 (von insgesamt 10.568) Unternehmen in der Softwarebranche ausmachen. Diese große Mehrheit der Unternehmen verfügt über 1-9 Mitarbeiter/innen. Siehe hierzu Studie für das BMBF „Analyse und Evaluation der SoftwareEntwicklung in Deutschland“, S. 54.

17

18

Heinrich C. Mayr und Jörg Maas

4.2 F&E-Felder Für die Softwaretechnik nennt das Walberberg-Memorandum explizit vier Bereiche8 , in denen massiver Forschungsbedarf bereits heute erkennbar ist, und die es unter dem Oberbegriff „Engineering informationsverarbeitender Systeme“ zusammenfasst: – Contentware-Engineering im Sinne des Verstehens, Gestaltens und Darstellens anwendungsspezifischer Inhalte. F&E-Bedarf besteht insbesondere hinsichtlich der Nutzung heterogener Datenquellen sowie beim Data, Text und Knowledge Mining. – Software Engineering mit der Hauptaufgabe der Erstellung und Weiterentwicklung komplexer Softwaresysteme: Forschungsbedarf besteht hinsichtlich der Erstellung und Integration wiederverwendbarer Softwarekomponenten sowie der Skalierbarkeit und Konfigurierbarkeit von Softwaresystemen. – Human-centered Engineering, das sich mit den Kommunikationsschnittstellen zwischen Menschen und informationstechnischen Systemen auseinandersetzt. Probleme in der Forschung bereiten die Entwicklung interaktiver, multimodaler und multilingualer Schnittstellen sowie die Entwicklung intelligenter Sensoren und Aktoren. – Network Engineering, das die Vernetzung sehr vieler einzelner Rechner zum Gegenstand hat. Zukünftige Handlungsfelder ergeben sich vor allem bei der Integration heterogener Netzinfrastrukturen und der Entwicklung von Netzen mit skalierbarer Leistung. Weitere wichtige Forschungsfelder sind nach unserer Meinung u.a. – die Stärkung der Validierungsfähigkeit der Bedarfssteller im Rahmen des Requirements Engineering durch geeignete Spezifikationsverfahren und -werkzeuge, – die Fortentwicklung der sog. Re-Techniken (Reverse Engineering, Re-Engineering, Software Renovation, etc.) für im Betrieb befindliche Informatiksysteme und die erforderlichen Diagnose- und Supportsysteme, – „Pervasive Computing“, bei dem Informatik-Komponenten mit alltäglichen Umgebungen oder Gebrauchsgegenständen verschmelzen, so dass „intelligente Räume“ bzw. „smart things“ entstehen, die auf die Gegenwart des Menschen, seine Absichten und Gewohnheiten und möglicherweise sogar seine Emotionen reagieren, – neue Formen der Gestaltung des Softwareentwicklungsprozesses, wie z.B. Extreme Programming oder „Software-Expeditionen“9, aber auch hinsichtlich der Unterstützung der Softwareentwicklung in räumlich verteilten Umgebungen im Sinne „virtueller Unternehmen“ und „dynamischer Netzwerke“. Da nur ein sorgfältiges Prozessmanagement die pünktliche Lieferung und höchste Ergebnisqualität eines Produktes garantiert, sollte diesem Bereich – zusammen mit Qualitätssicherungsverfahren, die lange noch nicht den Grad höchster Perfektion erreicht haben – die besondere Aufmerksamkeit der Forschung zukommen. 8 9

Schmid/Broy, a.a.O., S. 113f. siehe z.B. Julian Mack: „Software-Xpeditionen – eine gelungene Verbindung aus Expeditionssicht und Extreme Programming?“. In: H.C. Mayr, W. Hesse, A. Oberweis, Ch. Kop (eds.) „Software-Management 2000“, [email protected], Österreichische Computergesellschaft

18

Perspektiven der Informatik

19

– adaptive Modellierungs- und Spezifikationsverfahren, die ebenfalls den Bedingungen räumlich verteilter Umgebungen etwa im Sinne eines „e-Modeling“ gerecht werden. Hier spielt u.a. die Frage nach der Definition und dem Abgleich der jeweils zugrundeliegenden Ontologien bzw. Referenzmodelle in einem multilingualen Umfeld eine zentrale Rolle. Dies kommt selbstverständlich einer Art Wunschkatalog gleich; aus heutiger Sicht und mit der Perspektive der nächsten zehn Jahre vor Augen werden diese Forschungsbereiche allerdings sowohl für den reinen Engineeringprozess als auch für den Anwendungsentwicklungsprozess von erheblicher Bedeutung sein. 4.3 Handlungsbedarf Bei den Geschäftsmodellen, die mit der Softwareentwicklung verbunden sind, handelt es sich im wesentlichen einerseits um die Erbringung von Dienstleistungen, das heißt der Auftragsfertigung von Programmen oder einzelnen Komponenten, der Konfigurierung und dem Customizing von Standard-Softwareprodukten, sowie andererseits dem großen Bereich der Wartung und Anpassung an erweiterte Anforderungen. Letzteres ist entweder im adaptiven oder erweiternden Sinne gemeint. Ferner sind die Erzeuger der Produkte mit einzubeziehen, deren Gesamtsysteme oder Komponenten spätestens bei Feststellung eines Fehlers auf dem Prüfstand der Dienstleister stehen. Beide Bereiche lassen sich zwar nicht trennen, weisen aber je nach Geschäftsmodell ganz unterschiedliche Anforderungen an Verfahrenstechniken und Prozesse auf. Eine Differenzierung der Forschungsfelder ist hier also unabweislich. Über die Zweckmäßigkeit der Zusammenarbeit von Hochschulen, Forschungseinrichtungen und Industrie ist schon viel (Richtiges) geschrieben worden, dennoch hat dies offensichtlich nicht ausgereicht, die Zahl der geförderten Projekte auf das notwendige Maß anzuheben. Wünschenswert wäre in jedem Fall die Etablierung grenzüberschreitender Forschungsprojekte im deutschsprachigen Raum, ggf. sogar unter Einbeziehung von Institutionen aus den Green Card-Ländern Polen, Tschechien, den GUS-Staaten und Indien, die derzeit das größte personelle Kontingent stellen. Darüber hinaus ist ein weiterer Paradigmenwechsel erforderlich, und zwar hinsichtlich der heutigen Produktionsweise, die noch lange nicht überall Industriestandard erreicht hat, obwohl ihre Wertschöpfung das längst erforderte. Neben das Engineeringparadigma sollte zwingend ein neues „Produktionsparadigma“ treten, das die Leistungsgestaltung und Leistungserbringung in der Softwareentwicklung vom Kopf auf die Füße stellt, neu ordnet und damit auch neue Perspektiven eröffnet. Dies könnte dadurch erreicht werden, dass die experimentelle Erprobung innovativer Prozesse die herkömmlichen Methoden ergänzt. Zusätzlich müssen sich die (alten und neuen) Methoden in industriellen Einsatzfeldern bewähren. Das wird ohne die Förderung der Methodenkenntnisse und des Methodeneinsatzes in der Breite nicht funktionieren. Weiterbildungsmaßnahmen werden deshalb verstärkt zum Einsatz kommen müssen. Dringender Handlungsbedarf ist auch bei der Definition von Standards und Normen erkennbar. Es ist eine Binsenweisheit, dass sich Softwareentwicklung immer mehr in internationalen Verbünden abspielt. Sie wird nicht mehr isoliert geplant, umgesetzt und im-

19

20

Heinrich C. Mayr und Jörg Maas

plementiert, sondern weltweit eingesetzt, verwendet und verändert. Schon allein aus gesundem Eigeninteresse müssen wir uns stärker in der Normsetzung engagieren, denn wer nicht selbst Einfluss ausübt, über den wird letztendlich entschieden. So werden die Unternehmen gezwungen, sich fremden Normen unterzuordnen, anstatt selbst innovativ und kreativ als Vorreiter die Standards der Zukunft mit zu gestalten oder sogar vorzugeben. Nachteile drohen schließlich auch im zuletzt viel diskutierten Bereich des Patentwesens, hier speziell der Softwarepatente. Seit vielen Monaten verhandeln Experten in ganz Europa über diese schwierige Rechtsmaterie, wobei der Anlass das Ziel der Harmonisierung von Art. 52, Abs. 2 des Europäischen Patentübereinkommens (EPÜ) ist. Im wesentlichen geht es um die Frage, ob Software an sich patentwürdig ist (was de lege lata bislang verneint, in der Patentierungspraxis aber häufig übergangen wurde) und ob sich Europa die weitgehenden und liberalen Patentierungsregeln der USA zu eigen machen sollte oder nicht. Bekanntlich werden in den USA auch auf Geschäftsprozesse, wie dem mittlerweile berühmt/berüchtigten „One-Click-Bestellverfahren“ des Internetshops Amazon, Patente erteilt; eine Entwicklung übrigens, die in Europa sogar von dem meisten Patentanwälten abgelehnt wird. Die GI hat in ihrer eigenen Stellungnahme zur Patentierbarkeit von Software vom 30. Juni 200110 den Standpunkt vertreten, dass Patentschutz gewährt werden sollte, wenn die Voraussetzungen der Neuheit, Erfindungshöhe, gewerblichen Anwendbarkeit und der ausreichenden Offenbarung vorliegen. Darüber hinaus hat sie eine Anpassung der Patentierungspraxis an die spezifischen Bedingungen und Bedürfnisse der Softwarebranche gefordert, etwa dass die Patentämter in die Lage versetzt werden, den neuen an sie gerichteten Anforderungen hinsichtlich der Prüfung von Softwareerfindungen sowohl sachlich, d.h. durch entsprechende Recherchemöglichkeiten – auch in Nicht-Patentliteratur – als auch personell durch geeignete Fachleute (Informatiker in den Prüfungs- und Einspruchsabteilungen, wie auch bei den Patentgerichten) gerecht werden zu können. Im Memorandum „IT: Massive Defizite – jetzt handeln!“ des Strategiekreises I-12 der bedeutendsten Informatik- bzw. informatiknahen Fachgesellschaften des deutschsprachigen Raumes werden außerdem eine verkürzte Patentlaufzeit, ein gewisser Zwang zur Lizensierung patentierten Know How’s und die Einrichtung eines nicht-kommerziellen Prüfinstituts zur Unterstützung freier Entwickler sowie kleiner und mittlerer Unternehmen gefordert. Dies scheint ein gangbarer Kompromiss zwischen den harten Fronten zu sein. Zusammenfassend läßt sich feststellen, dass der offensichtlich massive Handlungsbedarf in der Forschung darin besteht, die wissenschaftlichen Grundlagen zur Vervollständigung der Softwaretechnik als wissenschaftliche Technologiebasis und Ingenieurdisziplin zu erarbeiten und die forschungsnahe Qualifikation zu intensivieren – eine Forderung im übrigen, die die GI seit langem erhoben hat. Dabei sollte der Grundlagenforschung ebenso viel Gewicht beigemessen werden wie der anwendungsorientierten Forschung, denn beide ergänzen sich bei guter Koordination im Zeitablauf perfekt. 10

Siehe dazu

20

Perspektiven der Informatik

21

5 Bedrohungen und Einflussfaktoren In der Einleitung haben wir bereits darauf verwiesen, dass die stetig wachsende Informatik-Industrie sich teilweise verzweifelt bemüht, adäquat ausgebildete Personen für freie Stellen in der Softwareentwicklung und anderen Zukunftsfeldern der Informatik zu gewinnen. Die Feststellung eines augenblicklich extremen Fachkräftemangels wird durch einschlägige Untersuchungen wissenschaftlich untermauert11. Bedauerlicherweise kann die genaue Zahl der fehlenden Fachkräfte durch die unterschiedlichen Definitionen, welche Qualifikationen und typischen Anforderungen eine Person in der Informatik-Branche eigentlich erfüllen muss, momentan kaum geliefert werden. Deshalb schwanken die Analysen für Deutschland zwischen rund 18.00012 und 298.00013 Personen, je nachdem, ob man nur nach Informatiker/inne/n oder generell nach Fachkräften der Informations- und Kommunikationsindustrie (IuK-Industrie) fragt (wobei zu letzterer Gruppe teilweise auch Arbeitnehmer/innen in Call-Centern gezählt werden). Immerhin hat die unbestreitbare Tatsache, dass Informatiker/innen weltweit zu den meistgesuchten Fachkräften zählen, dazu geführt, dass noch nie so viele umfassende Untersuchungen über den Arbeitsmarkt für Informatik-Professionals vorgelegen haben. Klarerweise wirkt sich dieser Fehlbestand am Arbeitsmarkt auch auf die Volkswirtschaft insgesamt aus. So werden beispielsweise für Europa Zahlen von bis zu 80 Mrd. EURO für aufgrund des Personalmangels nicht realisierbare Projekte genannt. All dies zeigt, dass der spezifische, auf Hochschulabsolventinnen und -absolventen gerichtete Bedarf lange nicht erkannt bzw. sogar verneint wurde, wie erst jüngst wieder von einem “Expertenrat“, dem kein/e einzige/r Informatiker/in angehörte14. Dementsprechend ist der Auf- und Ausbau entsprechender Studiengänge nach wie vor unzureichend, und der Zugang von Studienanfänger/innen zu Informatik-Studiengängen trotz erfreulicher jüngster Steigerungen zu gering, so dass mehr als die Hälfte der Arbeitsplätze von Seiteneinsteigern besetzt werden mußten und müssen. Am Ende der Kausalkette steht die deprimierende Diagnose, dass die Wirtschaft unter mangelnder Produktivität in der Softwareentwicklung leidet und dieses Problem durch ungenügende Methodenkenntnis und Prozessorientierung sowie fehlendes Qualitätsmanagement (TQM) verursacht wird. Dies bedeutet, dass sich Staat und Wirtschaft den teuren Luxus erlauben, unzureichend ausgebildetes Personal in für die Volkswirtschaft sensiblen 11

12

13 14

s. Studie für das BMBF „Analyse und Evaluation der Software-Entwicklung in Deutschland“, S. 6ff.; Studie des „European Information Technology Observatory (EITO)“: European market for information technology and telecommunications growing above world average, EITO-PressRelease vom 2.11.2000; http://www.eito.com/PAGES/EITO/ABSTRACT/pr021100.htm; D21Kurzstudie „Die Entwicklung des Arbeitsmarktes und der Hochschulplätze für IT-Fachkräfte in Deutschland“, Frankfurt/Stuttgart, 2001, S. 17ff., die mehrere andere Studien zusammenfasst und eigene Schlussfolgerungen daraus zieht. Befragung der Computer Zeitung 8/2000, S. 45-51, anlässlich der CeBIT 2000, zitiert nach Dostal: Anwerbung kann Ausbildung nicht ersetzen; in IAB-Kurzbericht Nr. 3/2000, Institut für Arbeitsmarkt und Berufsforschung. Milroy, Andrew/Rajah, Puni: Europe’s Growing IT Skills, IDC 2000 Abschlußbericht des Expertenrats im Rahmen des Qualitätspakts NRW, http://www.mswf.nrw.de/ navi/naviwf.html

21

22

Heinrich C. Mayr und Jörg Maas

Bereichen einzusetzen, und zwar in vollem Wissen um die Konsequenzen. Eine intelligente, weil vorausschauende Ausbildungsplanung und -steuerung könnte (und müsste) hier wirksam Abhilfe schaffen. Am meisten nachgefragt sind nach Angaben von Firmenvertretern Absolvent/inn/en von Fachhochschulen, und zwar sowohl in der Primär- als auch in der Sekundärbranche (je 36% der Nennungen), gefolgt von Universitäts-Absolvent/inn/en mit 24%, die jedoch bei zunehmender Unternehmensgröße auf bis zu 51% Nennungen kommen. Außerdem fällt auf, dass auch die nicht-akademische Ausbildung, also z.B. die in den neuen IT-Ausbildungsberufen, mit 19% der Nennungen in der Primärbranche und mit sogar 22% der Nennungen in der Sekundärbranche einen wichtigen Platz einnimmt15. Letzte Hochrechnungen gehen sogar davon aus, dass die für das Jahr 2003 angestrebte Zahl von 60.000 Ausbildungsverträgen bereits gegen Ende des Jahres 2001 erreicht werden wird16 . Solange aber die Absolventenzahlen tertiärer Ausbildungsgänge in den nächsten Jahren zwangsläufig auf einem niedrigem Stand verharren, werden die Unternehmen weiter mit Seiten- und Quereinsteigern Vorlieb nehmen müssen, wenn sie nicht das Glück haben, vollausgebildete Informatiker/innen einstellen zu können. Die Anfänger- und Absolventenzahlen werden zwar bis zum Jahr 2005 stetig ansteigen, für eine vollständige Befriedigung des Arbeitsmarktes werden sie aber voraussichtlich nicht ausreichen. Während im Jahr 2000 etwa 7.000 Informatiker/innen die Hochschulen verließen und etwa 20.000 Personen ein Informatik- oder Wirtschaftsinformatikstudium aufnahmen, werden im Jahr 2005 etwa 15.000 Personen ein solches Studium abschließen und 30.000 neu ein Informatikstudium beginnen17, falls nicht undifferenzierte Darstellungen der Arbeitsmarktlage im sog. „ITBereich“ wieder zu einer Abschreckung Studierwilliger führen. Der Fachkräftemangel in der Informatik trifft nicht nur die Unternehmen hart: Nahezu an allen Hochschulen können Stellen für Tutor/inn/en, wissenschaftliche Mitarbeiter/innen und Professor/inn/en kaum oder nicht besetzt werden. Überlastung im Bereich der Lehre und Administration, ständige Einmischungen von außen und dadurch mangelnder Freiraum für die Forschung verleiden zusammen mit dem im Vergleich zur Wirtschaft wenig konkurrenzfähigen Einkommen auch den größten Idealisten ein langfristiges Engagement an den Universitäten und Fachhochschulen. So wandern die meisten Studierenden entweder bereits vor ihrem Abschluss oder spätestens mit dem Diplom in der Tasche in attraktivere Arbeitsumgebungen ab. Aber auch der zusätzliche Bedarf der öffentlichen Hand bei der Bewältigung der Aufgaben, die mit dem Schlagwort „e-Government“ bezeichnet werden, kann nicht gedeckt werden (siehe dazu eine Studie von Mummert+Partner18 aus dem vergangenen Jahr). Es 15

16 17

18

Studie für das BMBF „Analyse und Evaluation der Software-Entwicklung in Deutschland“, S. 112 Umfrage des Instituts der deutschen Wirtschaft, in: iwd Nr. 38/2001, S. 6f. Statistisches Bundesamt, Hochschulstatistik, Fachserie 11, Reihen 4.1, 4.2 und 4.3.1; zitiert nach Gutachten im Auftrag des BMBF „Zur technologischen Leistungsfähigkeit Deutschlands, März 2001, S. 112f.; für das Jahr 2005: D21-Kurzstudie „Die Entwicklung des Arbeitsmarktes und der Hochschulplätze für IT-Fachkräfte in Deutschland, S. 28f. Mummert+Partner Unternehmensberatung AG, Studie Kommunale Vorhaben der Verwaltungsreform, Hamburg, 16.10.2000; http://www.mummert.de/deutsch/study/study.html

22

Perspektiven der Informatik

23

steht zu fürchten, dass die für die Umsetzung des e-Government zuständigen Kommunen mittelfristig einen „EDV-Infarkt“ erleiden, da sie als Arbeitgeber noch weniger attraktiv erscheinen als Bund und Länder, von Industrieunternehmen, Banken oder Versicherungen ganz zu schweigen. Als Faktoren, die sich künftig hemmend auf die Entwicklung eines Gleichgewichts auf dem Arbeitsmarkt bemerkbar machen werden, gelten der spätestens ab dem Jahr 2005 einsetzende Lehrkräftemangel vor allem an weiterführenden Schulen sowie der Rückgang der erwerbsfähigen Personen im Alter von 20 bis 65 Jahren um 12% bis zum Jahr 2020 (bis 2030 um weitere 15% ). Erschwerend kommt hinzu, dass sich bislang keine wirkliche „Kultur“ beziehungsweise eine „best practice“ ausgebildet hat, die Vorlagen für eine grenzüberschreitende, kooperative Entwicklung durch KMU’s liefern würde. Gut gemeinte Initiativen wie das deutsche „Sofortprogramm zur Weiterentwicklung des Informatikstudiums (WIS)“ mit einem Fördervolumen von rund 50 Mio. EURO, verteilt auf fünf Jahre und je zur Hälfte finanziert von Bund und Ländern, reichen in dieser Situation nicht aus, um kurzfristig Notlagen zu beseitigen. Notwendig wäre mindestens das sechsfache dieser Mittel, um zumindest den akuten Personalmangel an den deutschen Hochschulen zu beseitigen, nach GI-internen Schätzungen hieße dies ca. 67 Mio. EURO pro Jahr19 . Demgegenüber will beispielsweise Frankreich den Etat von INRIA (Institut National de Recherche en Informatique et en Automatique) und den der Spitzenuniversitäten in der Informatik verdoppeln, die USA investierten 900 Mio. $ allein in den nächsten PITAC-Call20 . Dies sind wegweisende Entscheidungen, die man sich auch in unseren Breiten wünschen würde. Im übrigen kommen diese Summen auf anderem Wege ebenfalls zustande, z.B. durch die Notwendigkeit der Umschulung von Seiteneinsteigern, hier werden diese Kosten aber größtenteils auf die Firmen verlagert.

6 Ausbildung Die beste Grundlage für die Arbeit als Informatiker/in ist eine fundierte Fachausbildung, die entweder an einer Hochschule oder ersatzweise an einer Berufsakademie erworben wurde. Kurzstudiengänge ohne studienbegleitende Praxis (Bachelor) fallen dagegen zumindest derzeit noch in der Gunst der Unternehmen ab21 . Die erforderlichen Qualifikationen hängen prinzipiell zwar eng mit dem angestrebten Arbeitsplatz zusammen, andererseits erleichtert bereits im Studium erlangtes Zusatzwissen in vernetzten Bereichen häufig den Einstieg. Besondere Bedeutung erlangen beim Zusatzwissen die Anwendungsbereiche der Informatik, ein gutes informatisches Grundwissen sowie umfangreiche Fremdsprachenkenntnisse. Rechtsinformatiker/innen sollten sich zudem mit betriebswirtschaftlichen Zusammenhängen vertraut machen. 19

20

21

Die GI geht dabei von vier Stellen an kleineren Informatikeinheiten sowie acht an größeren aus, im Schnitt also sechs Stellen. Damit ergibt sich ein Gesamtbedarf von 900 zusätzlichen Stellen, also ca. 67 Mio EURO pro Jahr an Förderungsbedarf. Siehe hierzu auch Pressemitteilung der GI „Wissenschaftlicher Nachwuchs in der Informatik wird knapp“ vom 29. Juni 2000; http://www.gi-ev.de/informatik/presse/index.html Studie für das BMBF „Analyse und Evaluation der Software-Entwicklung in Deutschland“, S. 112

23

24

Heinrich C. Mayr und Jörg Maas

Neben dem eigentlichen Wissen existieren aber noch die sogenannten „soft skills“, auf deren Vorhandensein die Personalabteilungen der Unternehmen in Zukunft noch stärker achten werden, vor allem dann, wenn die Auswahl an geeigneten Bewerber/inne/n langsam ansteigt. Hochschulabsolvent/inn/en sollten bereits im Rahmen ihres Studiums Fähigkeiten und Fertigkeiten wie freie Rede und sicheres Auftreten trainieren, kurz: an ihrer Persönlichkeit arbeiten, und damit die Voraussetzungen dafür schaffen, dass sie sich auch in schwierigen Zeiten (am Arbeitsmarkt, in Stresssituationen, in zeitkritischen Projekten) behaupten können. Informatik-Berufe sind geprägt von hohen Anforderungen an Teamfähigkeit, Planungskompetenz und an Mitarbeitermotivation und -führung, sobald die entsprechende Stufe der Karriereleiter erklommen wurde. Zwar muss niemand von Anfang an perfekt sein, denn vieles wird durch „training on the job“ vermittelt und erlernt, aber die Grundlagen für Offenheit und die Bereitschaft zu lebenslangem Lernen (Weiterbildung!) muss jede/r selbst legen. Mobilität und Belastbarkeit runden die positiven Eigenschaften von Bewerber/inne/n ab, die sich von der Masse abheben wollen. Da viele Fähigkeiten und Eigenschaften in reinen Vorstellungsgesprächen nicht abfragbar sind, treten an ihre Stelle mittlerweile häufig Assessment-Center, die einer Mischung aus ganztägigem Bewerbungsgespräch und Planspiel gleich kommen. Aufgrund der Neigung, diese Art von Tests zu standardisieren, haben aber auch die Resultate eines Assessment-Centers nur eine begrenzte Aussagekraft, da sich Bewerber/innen intensiv auf die Tests vorbereiten können. Im Zweifel zählt eine ausgeprägte Persönlichkeit mehr als angelesenes Testwissen. Während der künftige Bedarf und die erwarteten Zahlen für Studienanfänger/innen in der Informatik nur zu schätzen sind, liegen zu den Einsatzfeldern von Informatiker/inne/n hinreichend belastbare Angaben vor. Rund 50% der Informatiker/innen sind in der Anwendungsentwicklung und im DV-Management tätig und 25% in der Systementwicklung und im Systemmanagement. Zehn Prozent arbeiten in Beratung, Vertrieb und Verkauf, und weitere zehn Prozent in der Verwaltung und Koordination, lediglich fünf Prozent wirken in Forschung und Lehre22 .

7

Die Gesellschaft für Informatik

Anstelle einer Zusammenfassung des zuvor Gesagten erlauben wir uns abschließend einen kurzen Blick auf unsere Fachorganisation, die Gesellschaft für Informatik. Die verhältnismäßig junge Forschungs- und Anwendungsdisziplin Informatik hat in den zurückliegenden dreißig Jahren die notwendigen fachlichen und organisatorischen Strukturen ausgebildet, um im öffentlichen Umfeld ernst genommen zu werden und intern eine kontinuierliche Arbeit zu leisten. Ihre größte Vertretung im deutschsprachigen Raum ist die Gesellschaft für Informatik (GI). Heute setzen sich über 22.500 Mitglieder in fast 120 Fachgruppen, in Arbeitskreisen, in Leitungsgremien und in Beiräten für sie ein; nicht immer, um Probleme aufzugreifen, aber stets, um die Informatik zu fördern und die Disziplin in Wissenschaft, Forschung und Anwendung voran zu bringen. Die GI kooperiert eng mit 22

Joerg E. Staufenbiel, Birgit Giesen, Birgit (Hrsg.): Berufsplanung für den IT-Nachwuchs. 2. Aufl., Köln 2001, S. 30

24

Perspektiven der Informatik

25

ihren Schwestergesellschaften SI (Schweizer Informatiker Gesellschaft) und OCG (Österreichische Computergesellschaft). Die GI hat sich in den letzten Jahren zu einer kompetenten Fachorganisation entwickelt, deren Stellungnahmen zu Themen wie Informatik-Ausbildung (Akkreditierungsrichtlinien, Anwendungsbezug etc.) und Gesetzesentwürfen wie zum Beispiel zum Signaturgesetz oder zum Patentrecht breite Beachtung finden. Ihre Beiträge zur politischen Willensbildung, die die GI nicht zuletzt durch Hintergrundgespräche mit Entscheidungsträger/inne/n in Politik, Verwaltung und Wirtschaft leistet, tragen zur Versachlichung der Diskussion und zur Verbreiterung der Entscheidungsgrundlagen bei.

25