Nach dem Flop der „New Economy“ am Aktienmarkt hellt die Stimmung an den Märkten für Informations- und Kommunikations-Technologien (IuK-Technologien) inzwischen wieder deutlich auf. Neue Produkte und Prozesse aus dem Bereich der IuK-Technologie verändern das Geschäft in allen Segmenten der Volkswirtschaft. In dieser Studie diskutieren wir die für Business-Anwendungen in diesem Jahrzehnt hoch gehandelten IuK-Innovationen.
Dazu unterscheiden wir mit dem IuK-Trend und dem IuK-Konzept zwei Abstraktionsstufen. Die obere Abstraktionsstufe der IuK-Trends beschreibt fortwährend treibende Faktoren und strategische Ziele der Unternehmen. Die IuK-Trends beeinflussen die IuK-Innovation über dieses Jahrzehnt hinaus. Die darunter liegende Abstraktionsstufe der IuK-Konzepte beschreibt konkrete IuK-Produkte und -Prozesse, in denen sich die Trends am Markt spiegeln. Die in dieser Studie dargestellten IuK-Konzepte erheben den Anspruch, das Geschäftskunden-Segment innerhalb dieses Jahrzehnts fundamental zu verändern. Diese hoch gehandelten IuK-Konzepte überprüfen wir auf ihr tatsächliches Verbreitungspotenzial im Geschäftskundensegment.
Effizienz und Sicherheit treiben Innovation
Mit den wirtschaftlichen, politischen und technologischen Veränderungen in den letzten Jahren kristallisieren sich im IuK-Bereich zwei bestimmende Trends heraus. Zum einen rücken mit dem Platzen der „New Economy“-Aktienblase die Bestrebungen hin zu mehr Effizienz verstärkt in den Fokus der Entscheider. Zum anderen gewinnt vor allem mit dem 11. September 2001, daneben aber auch mit der fortschreitenden Komplexität des Internet und den zunehmenden Web-Attacken die Sicherheit der Prozesse nachdrücklich an Bedeutung. Dabei umfasst das Streben nach verbesserter Sicherheit sowohl die höhere Zuverlässigkeit der Prozesse (z.B. bei der garantierten, d.h. jederzeit verfügbaren Bandbreite der Datenübertragung) als auch die Vertraulichkeit bzw. Integrität der Information. Der Schutz vor Spionage, Sabotage bzw. Zerstörung ist ein weiterer, besonders relevanter Aspekt der IT-Sicherheit. Die Datenübertragung im anarchisch organisierten, anonymen World Wide Web (WWW) muss auf Spionage, Viren- und Wurmattacken gefasst sein. Die Gefahren sind eklatant. Allein im Mai 2004 kursierten im Internet 1.000 neue Viren – mehr wurden lediglich im Dezember 2001 gezählt. Daneben stieg die Zahl betrügerischer Phishing-Mails (Phishing: Kunstwort aus „Password“ und „Fishing“), die vertrauliche Daten von Bankkunden (z.B. Kartennummer, Passwort, PIN) ausspionieren, innerhalb von zwölf Monaten allein in Deutschland von 300 auf 200.000.
Somit treiben die beiden Trends Sicherheit und Effizienz in besonderem Maße die Produkt- bzw. Prozessinnovationen im IuK-Bereich voran. Allerdings sind die beiden Trends nicht zwangsläufig gleichgerichtet. Zumindest im kurzfristigen Kalkül unter der Annahme des Business-as-Usual kann das Streben nach höherer Effizienz mit den Investitionen in Sicherheit in Konflikt geraten.
In der Öffentlichkeit heiß diskutierte IuK-Konzepte
Wir überprüfen die zehn in der Öffentlichkeit besonders intensiv diskutierten IuK-Konzepte, die sich aus den beiden bestimmenden Trends ableiten, auf ihr tatsächliches Verbreitungspotenzial. Diese zehn innovativen IuK-Produkte und -Prozesse sind:
– die Internet-Telefonie (Voice over Internet Protocol, VoIP),
– die fortentwickelten Mobilfunktechnologien, insbesondere Universal Mobile Telecommunication System (UMTS), Wireless Local Area Network (WLAN) bzw. Worldwide Interoperability for Microwave Access (WiMax),
– die Biometrie,
– die Quantenkryptografie,
– das automatisierte Architekturgetriebene Programmieren, insbesondere Model Driven Architecture (MDA),
– das dezentrale Speichern von Daten, insbesondere Information Lifecycle Management (ILM)
– das dezentrale Verarbeiten von Daten, insbesondere Grid Computing,
– die Open Source Software,
– das Outsourcing und
– das Funketikett (Radio Frequency Identification Transponder, RFID-Tag).
In anderem Kontext untersuchte Deutsche Bank Research bereits vier der essenziellen IuK-Konzepte; nämlich die fortentwickelten Mobilfunktechnologien, die Biometrie, die Open Source Software und das Outsourcing. Daher präsentieren wir bei diesen vier IuK-Konzepten im Gegensatz zu den sonstigen sechs Themen lediglich die neusten marktrelevanten Entwicklungen.
Sprachkommunikation via Internet hoch im Kurs
Mit den Innovationen im IuK-Bereich verwischen sich die Grenzen zwischen ehemals klar getrennten Geschäftsfeldern. So erweitern Web-Provider – eigentlich auf Datentransport im Festnetz spezialisiert – ihr Angebotsspektrum um die Internet-Telefonie (Voice over Internet Protocol, VoIP) und machen damit der gewöhnlichen Sprachtelefonie direkte Konkurrenz. Ein erster Anlauf von VoIP im Markt versandete Mitte der 1990er. Die Einrichtung der damals erforderlichen Technologie war recht komplex, zusätzlich war die tatsächlich erreichbare Sprachqualität wenig zufrieden stellend. So erklärt sich, dass in Deutschland derzeit lediglich 2% des gesamten Minutenaufkommens über die angemeldeten 300.000 VoIP-Anschlüsse generiert werden. Doch nun sollen nutzerfreundliche Technologien und bis zu 90% günstigere Tarife den Endkunden den Umstieg vom üblichen Telefonanschluss auf VoIP schmackhaft machen. Gleichwohl hängt der Erfolg von VoIP im Markt von zwei wesentlichen Faktoren ab. Zum einen steigt die Attraktivität von VoIP mit der Verbreitung innovativer breitbandiger Übertragungs-Technologien, speziell der für mittelständische Unternehmen besonders relevanten Festnetztechnologie Digital Subscriber Line (DSL). Allein breitbandige Telekommunikationsnetze (TK-Netze) können derzeit die Qualität des Services VoIP hinsichtlich der zeitnahen Datenübertragung garantieren. Zum anderen steigt die Attraktivität von VoIP auch mit der Anzahl teurer Auslandsgespräche. VoIP richtet sich daher noch vorwiegend an große Unternehmen mit über den Globus verstreuten Standorten. Bei diesen Unternehmen sind die laufenden Telefongebühren so hoch und der Betrieb des unternehmenseigenen TK-Netzes so teuer, dass sich die Investition in eine VoIP-Infrastruktur auszahlt.
Ob VoIP neben den internationalen Unternehmen und den technologiebegeisterten Privatnutzern auch den breiten Massenmarkt erreichen kann, ist fraglich. Der Erfolg hängt von der Strategie der traditionellen TK-Unternehmen hinsichtlich ihrer Produkte (speziell DSL) und Kundenentgelte im Festnetz und im Mobilfunk ab. Die zumeist nur sehr kleinen Differenzen zu den Kundenentgelten bereits etablierter Angebote, die eingeschränkte Verfügbarkeit von Notruf- bzw. Servicenummern sowie die Ängste der potenziellen Anwender hinsichtlich der Abhörsicherheit bzw. hinsichtlich der zu erwartenden Flut von Werbenachrichten dämpfen dort nachhaltig die Chancen von VoIP. Demnach hat VoIP als allein stehende Offerte außerhalb eines gebündelten Servicepaketes des Providers ein deutlich geringeres Potenzial als zunächst erhofft.
Sprachtelefonie mittels Internet ist prominentes Beispiel für die Konvergenz ehemals klar getrennter Technologiebereiche. VoIP tritt mit dem Anspruch an, Kosten zu senken und reflektiert damit den Trend Effizienz. Der Aspekt Sicherheit, speziell in Form von Vertraulichkeit der Information steht aus Sicht der Nutzer bei VoIP derzeit noch im Hintergrund – wird künftig aber bedeutend.
IuK-Technologien zunehmend kabellos
Doch der Wettbewerb beschränkt sich nicht auf Sprachtelefonie im Festnetz. So erobert der Mobilfunk – ursprünglich für Sprachkommunikation konzipiert – mit innovativen Applikationen den Markt für Datenkommunikation. Die Datenkommunikation im Geschäftskunden-Spektrum arbeitet heute noch weitgehend mit stationär verwendeten IT-Endgeräten. Üblicherweise werden Desktop PC oder Notebook über fixe Zugänge in das Datennetz der Unternehmen eingeklinkt. Vor Ende dieses Jahrzehnts werden fortgeschrittene Applikationen, wie die Auftragsplanung und Rechnungsstellung von unterwegs, den Markt erobern. Besonders der Außendienst hofft darauf, breitbandige Dienste, wie umfassende Datenbanken, kabellos mobil und bequemer als bislang über mobile Endgeräte zu nutzen.
Allerdings fällt bei den unterschiedlichen systemtechnischen Anforderungen von Endgeräteherstellern, TK-Netzausrüstern und Softwarehäusern die Integration mobiler Lösungen in die bestehenden IuK-Strukturen der Unternehmen oft schwer. Bereits leicht erweiterte Desktop-Anwendungen lassen sich nicht zwangsläufig deckungs-gleich auf portable Endgeräte, insbesondere den sehr kleinen Personal Digital Assistant (PDA) übertragen. Zwar werden derzeit etliche mobile Endgeräte mit gängiger Unternehmenssoftware ausgerüstet, doch bei der grafischen Darstellung und der breitbandigen Datenübertragung bleiben Fragen offen.
Während die Mobilfunknetze die Vision des nahtlosen, mobilen Büros noch nicht unterstützen, dürfte sich bis zum Ende dieses Jahr-zehnts ein Quantensprung in der mobilen Übertragungstechnologie realisieren. Für breitbandige Datenkommunikation ist Wireless Local Area Network (WLAN) mit seiner Übertragungsrate von 54 Mbit/s grundsätzlich besonders geeignet. Diese Übertragungsgeschwindigkeit ist 1.000mal größer als im analogen TK-Festnetz und vergleichbar mit der Festnetztechnologie DSL. Hemmschuh hinsichtlich der stärkeren Verbreitung von WLAN bleibt die geringe Zellgröße, die lediglich Datenübertragung im Umkreis von maximal 500 m erlaubt. Die unterbrechungsfreie Übergabe der Verbindungen beim Übergang zwischen WLAN-Zellen ist bislang nicht gewährleistet. Neben den ungelösten technischen Herausforderungen sinkt die Marktrelevanz von WLAN auch mit dem von den Providern eingeschlagenen Weg der Insellösungen bei der Tariffierung. Solange die konkurrierenden WLAN-Betreiber ihre Abrechnungsmodelle nicht harmonisieren, bleibt der Markt für allein stehende WLAN-Lösungen zwangsläufig klein. Bis zum Ende dieser Dekade sorgt die Kombination aus WLAN und Universal Mobile Telecommunication System (UMTS), der dritten Generation (3G) der Übertragungstechnologien im Mobilfunk, für Abhilfe. Darüber hinaus steht bis Ende dieses Jahrzehnts die Mobilfunktechnologie Worldwide Interoperability for Microwave Access (WiMax) dem Anwender zur Verfügung. Diese bislang noch in der Versuchsphase befindliche Weiterentwicklung im Mobilfunk kommt unter Idealbedingungen bei einem Zelldurchschnitt von bis zu 50 km auf Übertragungsraten von 70 Mbit/s. WiMax eröffnet damit der gesamten Datentelefonie das Tor zu neuen Märkten.
Die neuen Mobilfunkgenerationen und die im Mobilfunk beobachtbare Konvergenz der Technologien (Konvergenz von Sprach- und Datenübertragung) stellen einen Meilenstein auf dem Weg zu nahtloser Kommunikation und effizienteren Arbeitsabläufen dar. Gleichwohl sind die modernen Mobilfunktechnologien hinsichtlich des Aspektes Sicherheit weiter gefordert. Speziell bei der Übermittlung vertraulicher Information und im Bereich der garantierten, jederzeit verfügbaren Übertragungskapazität existiert Handlungsbedarf.
Quantenkryptografie gewährt Vertraulichkeit
Die Konvergenz der IuK-Technologien fordert die Sicherheitsverantwortlichen in den Unternehmen heraus. Dabei bestimmt das schwächste Glied in der Kette aller Prozesse das Sicherheitsniveau des Gesamtsystems. Daher ist die Sicherheit immer eine Herausforderung für das gesamte Unternehmen, insbesondere aber für die beiden Felder IT-Prozesse und IT-Infrastruktur. Doch die Sicherheit eines Systems beweist sich nicht vorrangig in den spektakulären Fällen der Abwehr von Hacker-, Wurm- und Viren-Attacken oder den Disaster Recovery- und Business Continuity-Plänen im Katastrophenfall der vernichteten IT-Infrastruktur. Stattdessen sind es vielmehr die alltäglichen Arbeitsabläufe, insbesondere der vertrauliche Datentransfer und die Authentifizierung der Geschäftspartner, die das Sicherheitsniveau eines Systems primär bestimmen.
Vertraulichkeit und Integrität der Information sind zentrale Geschäftsgrundlagen. Die Unternehmen müssen immer komplexere Codierungsverfahren implementieren, um im rasanten Wettlauf mit den Datenhackern auf der sicheren Seite zu stehen. Die physikalische Methode der Quantenkryptografie beschreitet nun bei der Codierung vertraulicher Daten einen neuen Weg, der aus dem kostenintensiven Wettlauf um die jeweils sicherste mathematische Codierung ausbricht. So gibt es, anders als bei der Codierung per Public Key Infrastructure (PKI), bei der Quantenkryptografie keine gesonderte Botschaft, die den Codierungsschlüssel enthält und deshalb in das Visier der Hacker geraten könnte. Statt mathematischer Kombinationen nutzt die Quantenkryptografie bestimmte Quantenzustände, um Information zu übermitteln. Aus physikalischen Gründen verändert ein Lauschangriff zwangsläufig die Quantenzustände und damit die Information selbst. Der Angriff wird so sofort enttarnt. Bis Ende dieses Jahrzehnts dürfte die Quantenkryptografie im kommerziellen Markt ausgerollt werden. Derzeit hadert die Quantenkryptografie noch mit Problemen bei der Übermittlung über lange Distanzen. Ist diese Herausforderung bewältigt, stehen insbesondere das Finanz- und Versicherungsgewerbe als prototypische Anwender von Sicherheitstechnologie parat. Dieser viel versprechende Interessentenkreis eröffnet der Quantenkryptografie einträgliche Marktpotenziale.
Politik verhilft Biometrie zum Durchbruch
Im weiten Feld der Sicherheit wird neben der Quantenkryptografie auch immer wieder die Biometrie als großer Fortschritt hervorgehoben. Die Biometrie zielt je nach Einsatzfeld auf die Identifizierung und/oder Authentifizierung der Anwender und nutzt dazu die Körper- und Verhaltensmerkmale der Personen. Biometrische Merkmale sind der Fingerabdruck, die Gesichtsgeometrie, das charakteristische Muster der Iris, die Geometrie der Hand und sogar die Bewegungsmotorik beim Tippen oder Gehen. Derzeit erkennen biometrische Verfahren etwa jeden 50. nicht. Kann diese Fehlerquote weiter gesenkt werden, besitzt vor allem die heute bereits von Strafverfolgungsbehörden erprobte biometrische Fingerabdruckerkennung umfassende Einsatzmöglichkeiten im Massenmarkt.
Rund um den Globus beschäftigen sich die staatlichen Behörden intensiv mit den Entwicklungen der Biometrie. Die US-Regierung sah zunächst vor, ab Oktober 2004 eine Einreise ohne Visum prinzipiell nur noch zu gestatten, wenn im Reisepass des Einreisenden biometrische Daten ausgewiesen werden. Zwar verschob der US-Kongress mittlerweile diese Frist, gleichwohl bleibt die Forderung nach dem Ausweis biometrischer Merkmale grundsätzlich bestehen. Nicht zuletzt mit den politischen Entscheidungen nach dem 11. September 2001, d.h. dem Kampf gegen Terror und international organisierte Kriminalität, erlebt der Bereich einen deutlichen Aufschwung. Nach Schätzungen von Frost&Sullivan hatte der Weltmarkt biometrischer Produkte 2002 ein Volumen von EUR 150 Mio., er dürfte bis 2010 die EUR 6 Mrd.-Marke durchbrechen.
Die Entscheider in der öffentlichen Verwaltung und der Privatwirtschaft haben die Quantenkryptografie und die Biometrie längst als relevante Sicherheitslösungen erkannt. Bei beiden Optionen stehen den Investitionen allerdings keine über den gesamten Nutzungszeitraum direkt im operativen Geschäft erzielte und in den Büchern aufgeführte Erträge gegenüber. Gleichwohl eröffnen die Quantenkryptografie und die Biometrie große Chancen, sowieso notwendige Vorkehrungen hinsichtlich der Sicherheit effizienter zu gestalten. Hier bringen Quantenkryptografie und Biometrie die allzu oft widersprüchlichen Trends Sicherheit und Effizienz in Einklang.
Programmieren wird automatisiert
Der Anteil der Ausgaben für die Pflege der IT-Systeme ist in den letzten Jahren deutlich gestiegen. Gleichwohl müssen die Systeme trotz dramatisch beschnittener Budgets fortentwickelt werden. Somit rückt neben der Sicherheit auch die Frage kostengünstiger Entwicklung neuer Softwarebausteine in den Fokus der Entscheider in den Unternehmen. Wie zuvor in den traditionellen Industriezweigen schreiten nun auch im Software-Bereich selbst die Automatisierung und die Standardisierung voran. Das automatisierte Architekturgetriebene Programmieren nach Vorgaben der Model Driven Architecture (MDA) bietet hier neue Ansätze. MDA geht beim Entwickeln von Programmen weg vom simplen Codieren und hin zum kreativen Modellieren. Ziel ist es, Information semantisch zu verknüpfen, um daraus eine speziell angepasste Software zu erstellen. Konkret setzt das automatisierte Architekturgetriebene Programmieren bei der kostenintensiven Fehlerhäufigkeit der Programmierung an. Die aus den Programmfehlern resultierenden Produktionsausfälle belaufen sich in den USA pro Jahr auf EUR 50 Mrd.
Nach dem neuen Konzept des automatisierten Architekturgetriebenen Programmierens werden komplexe Maschinencodes nicht mehr von Menschen entwickelt oder getippt. Stattdessen erfasst ein Generator als Programmiermaschine konkrete Kundenanforderungen und stellt eine zugeschnittene Routine aus modularen Softwarebausteinen zusammen. In der Öffentlichkeit macht das automatisierte Architekturgetriebene Programmieren dank der Aktivitäten einer Kooperation wissenschaftsnaher spanischer Institutionen Furore. Dieses Kooperationsprojekt wirbt damit, die Entwicklungszeit um die Hälfte und die Fehlerrate um fünf Sechstel zu senken. Die Programmiermaschine hat unter anderem mit einer amerikanischen Börse und einer spanischen Fluglinie bereits Pilotanwender gefunden. Das automatisierte Architekturgetriebene Programmieren hat damit das Stadium rein akademischer Forschung hinter sich gelassen und verändert den IT-Markt fundamental. Das automatisierte Architekturgetriebene Programmieren will Arbeitsabläufe neu gestalten und spiegelt damit in besonderem Maße den Trend Effizienz. Der Trend Sicherheit wird von der Option des automatisierten Architekturgetriebene Programmieren nicht tangiert.
IT zwischen Zentralisierung und Dezentralisierung
Die exorbitant wachsende Datenflut allein die Deutsche Bank Server verarbeiten täglich fünf Mio. E-Mails macht innovative Konzepte des Speicherns und Verarbeitens von Daten erforderlich. Kommerzielle Anwender sprechen sich mit großer Mehrheit für das durch Information Lifecycle Management (ILM) vertretene Konzept des zentralen Verwaltens dezentraler Speicherkapazitäten aus. ILM setzt voraus, dass die Speicherkapazitäten zentral von einem Ort aus gemanagt werden, nicht aber, dass alle Speicherkapazitäten tatsächlich an einem Ort physisch zentriert sind. Gegenüber Cap Gemini Ernst&Young geben 90% der deutschen Unternehmen an, im ILM den Königsweg bei der Nutzung der Konzernressourcen zu erkennen. Die Unternehmensberatung Lünendonk fand heraus, dass fast jedes fünfte der befragten 180 deutschen Unternehmen aus verschiedenen Branchen unmittelbar vor der Einführung von ILM steht. Idealerweise soll die zentral verwaltete ILM-Infrastruktur die Information nur einmal und lediglich so lange wie nötig vorhalten. Das Speichern von Daten mittels dezentraler IT-Ressourcen steigert somit die Effizienz. Im Nebeneffekt kann ein zentraler Systemadministrator die Maßnahmen zur Verbesserung der Sicherheit des Gesamtsystems einfacher abstimmen und so ein besseres Gesamtergebnis erreichen.
Idee zentral genutzter dezentraler Kapazität fasziniert
Während ILM auf das Speichern von Daten mittels klar abgegrenzter IT-Ressourcen abzielt, beschäftigt sich das Grid Computing (grid: engl. Gitter, Netz) mit der weit komplexeren Aufgabe der Datenverarbeitung mittels dezentraler IT-Netzwerke. Grid Computing machte mit dem von der University of California koordinierten SETI@home Furore. SETI durchforscht Radio-Signale aus dem Weltraum nach Belegen für extraterrestrisches intelligentes Leben. Das Forschungsnetzwerk besteht aus 5 Mio. PCs in 226 Ländern. Grundsätzlich geht es dem Grid Computing darum, einen klar definierten, virtuellen Verbund dezentraler IT-Einheiten zu einer insgesamt großen Rechenkapazität zusammenzufassen. Ausgangspunkt ist die Erkenntnis, dass private Nutzer die verfügbare Rechenleistung ihrer PCs im Durchschnitt zu weniger als einem Drittel und die Speicherkapazität zu weniger als zwei Fünftel nutzen. Dem sich aus der Nutzung dezentraler Rechenleistung ableitenden Kostenvorteil bei der Hardware steht der Nachteil aufwändiger Administration gegenüber. Für Grid Computing eignen sich ausschließlich solche Prozesse, die stark standardisiert, eindeutig strukturiert, organisatorisch leicht zu trennen, in der Kooperation wenig komplex und darüber hinaus nicht sicherheitsrelevant sind. Grid Computing wird vorwiegend von akademischen Zirkeln eingesetzt. Nicht zuletzt wegen des Sicherheitsaspektes und der komplexen Administration bleiben kommerzielle Grid Anwendungen bislang die Ausnahme. Dank des Engagements der EU-Kommission, die in ihrem Rahmenforschungsprogramm EUR 58 Mio. investierte und dank des aufkeimenden Interesses großer Softwarehäuser richtet sich Grid Computing nun stärker auf den kommerziellen Bereich. Dennoch bleibt aufgrund der systemimmanenten Grenzen der kommerzielle Markt klein. Selbst die Projektion des Marktforschungsinstituts Grid Technology Partners, die für 2005 weltweit lediglich Umsätze von knapp EUR 4 Mrd. prognostiziert, ist recht optimistisch.
Open Source revolutioniert Software-Geschäft
Wie Grid Computing bei der Datenverarbeitung, so verfolgt auch Open Source bei der IT-Entwicklung einen dezentralen Ansatz. Der Begriff Open Source beschreibt ein alternatives Modell der Produktentwicklung und beschränkt sich nicht allein auf eine (preiswerte) Software. Open Source Elemente kommen zumeist im Serverbetrieb zum Einsatz, finden sich aber ebenfalls in den Bereichen Desktop-Anwendungen, Desktop-Betriebssysteme oder Embedded Systems. Dem Open Source Gedanken entsprechend sind die Lizenzen der Produkte kostenfrei. Gleichwohl entstehen dem Nutzer dann Kosten, wenn er Dokumentationen, Supportleistungen oder speziell zugeschnittene Versionen für seine Open Source Produkte nachfragt. Die Aspekte Sicherheit und After-Sales-Service und tatsächlicher Kostenvorteil werden bei Open Source Software kontrovers diskutiert. Der dezentrale Ansatz des Open Source Modells kann sowohl gegen, als auch für die Qualität des Resultats sprechen. Daher ist es nicht verwunderlich, dass namhafte kommerzielle Research Institute beim Vergleich zwischen kommerziellen Software-Angeboten und Open Source Lösungen zu völlig diametralen Empfehlungen gelangen.
Ungeachtet der anhaltenden Diskussion setzt die öffentliche Verwaltung heute bereits Open Source Produkte massiv ein. Neben dem deutschen Bundestag planen etliche Kommunalverwaltungen, Server und sogar Desktop-Anwendungen auf Open Source Produkte umzustellen. Nach den Vorgaben basiert Ende dieses Jahrzehnts die IT-Architektur der öffentlichen Verwaltungen in Bund, Ländern und Gemeinden überwiegend auf Open Source. Auch in der Privatwirtschaft wächst das Vertrauen in Open Source Software. Nachdem im vergangenen Jahr lediglich jedes siebte deutsche Unternehmen Open Source Software integrierte, stellt heute jedes sechste einen Etat bereit. Nicht nur das nachdrückliche Engagement der großen Softwarehäuser bzw. die gemeinsame Initiative der Regierungen Japans, Chinas und Südkoreas bei Open Source sprechen dafür, dass Open Source die Faszination inne wohnt, die es braucht, um den Softwaremarkt in Zukunft weiter zu revolutionieren.
Open Source senkt IT-Kosten und spiegelt damit das Streben nach mehr Effizienz. Wegen des dezentralen Ansatzes wird Open Source aber teilweise im Konflikt mit dem Trend Sicherheit gesehen zumeist zu unrecht. Der aufgrund dezentraler Strukturen möglicherweise unzureichende Support der Open Source Software schreckt Anwender derzeit noch ab. Die Vorbehalte gegenüber Open Source dürften sich mit der zunehmenden Verbreitung allerdings deutlich relativieren. Die Unterstützung aus etlichen Richtungen, von den öffentlichen Verwaltungen vieler Staaten bis hin zu namhaften Softwarehäusern, unterstreicht das Verbreitungspotenzial und die Bedeutung der Open Source Idee für den IT-Markt insgesamt.
Outsourcing: sinnvoll Sparen lernen
Bei beschnittenen IT-Budgets bietet das Outsourcing, speziell auch das Offshore Outsourcing, den Unternehmen eine viel versprechende Option effizienter zu arbeiten. Grundsätzlich geht es beim Outsourcing darum, Fixkosten zu senken und Spezialisierungsvorteile auszuschöpfen. Beim Offshoring steht darüber hinaus der Wunsch, Lohndifferenziale auszunutzen, an prominenter Stelle. Zwar sind die Einsparpotenziale des Outsourcing tatsächlich vorhanden, werden aber teilweise überschätzt. Insbesondere Großunternehmen erreichen oft bereits hausintern Dimensionen, die Skalenerträge und Spezialisierungsvorteile ermöglichen. Daneben sind nicht alle Geschäftsprozesse problemlos auszulagern. Outsourcing kommt vor allem dann in Frage, wenn der auszulagernde Vorgang stark standardisiert, klar strukturiert, organisatorisch leicht zu trennen und in der Kooperation wenig komplex ist. Jedes Unternehmen muss daher bei seinen Outsourcing-Plänen eingehend prüfen, bei welchen Prozessen die erreichbaren Vorteile hinsichtlich der Kostenersparnis die Nachteile des Kontrollverlusts hinsichtlich des Gesamtprozesses nachhaltig überwiegen. Outsourcing zielt auf die Senkung der Kosten und ist damit Ausdruck des Strebens nach effizienteren Strukturen. Die Sicherheit, die Vertraulichkeit und die Zuverlässigkeit der Prozesse werden beim Outsourcing oft in Frage gestellt zumeist allerdings unbegründet.
Funketikett heftet Produkten Datenschatten an
Das Funketikett (Radio Frequency Identification Transponder, RFID-Tag) tritt an, um Waren einen Datenschatten anzuheften und damit den Informationsfluss entlang der Wertschöpfungskette zu verbessern. In der Öffentlichkeit wird der RFID-Tag zumeist als Ersatz des Strichcodes auf Paletten und auf Einzelhandelswaren diskutiert. Doch die Anwendungsmöglichkeiten des RFID-Tags gehen weit darüber hinaus. Tatsächlich ist bereits heute die Spanne namhafter RFID-Anwender breit gefächert.
Verschiedene Groß- und Einzelhändler, die Konzernlogistik von Volkswagen aber auch die Wiener bzw. die vatikanische Bibliothek setzen auf RFID. Bis vor kurzem nähte die britische Handelskette Marks&Spencer RFID-Tags in ihre Kleidungsstücke ein. Ziel war es, innerhalb der Verkaufsräume die Lagerhaltung nach Konfektionsgröße und Farbe zu optimieren. Bis heute wacht im deutschen Metro Future Store Rheinberg RFID-Technologie über die Frische der angebotenen Lebensmittel und erhöht die Geschwindigkeit des Ausleseprozesses an der Kasse. Garantiert frische Ware und verkürzte Wartezeit steigern das Serviceniveau für den Kunden. Ein Pilotversuch der Konzernlogistik von VW fokussierte auf die Optimierung der Lagerhaltung. VW investierte EUR 550 Mio. und zeigte, dass RFID die Geschwindigkeit der Lagerabwicklung im Vergleich zum traditionellen Strichcode um das 20fache erhöht. RFID ermöglichte das Tracking von Lieferströmen entlang der gesamten Wertschöpfungskette. Darüber hinaus reduzierten sich die Ersatzbeschaffung um zwei Fünftel und der Schwund um ein Drittel. Die Wiener Hauptbücherei investierte seit 2001 EUR 675.000 in RFID und versah 300.000 Medien mit Smart-Tags. Bislang nimmt die Hälfte aller Nutzer die Option wahr, beim Passieren einer Schleuse automatisch, schnell und bequem Bücher auszubuchen. Ähnlich wie die Wiener Hauptbücherei ging auch die vatikanische Bibliothek vor. Die katholische Kirche zeichnete 150.000 Bücher ihres öffentlichen Lesesaals in Rom mit RFID-Tags aus. Die auf dem Chip gespeicherten Daten zu Autor, Thema, Erscheinungsjahr sollen nun verhindern, dass Titel falsch eingestellt werden. Die Inventur der vatikanischen Bibliothek, die zuvor einen Monat beanspruchte, ist nun an einem halben Tag zu erledigen. Die Projekte im Handel, im Bibliothekswesen, der Logistik und der Event-Organisation offenbaren erhebliche Effizienzpotenziale. Gleichwohl weisen Praxistests darauf hin, dass die RFID-Technologie speziell auf den jeweiligen Prozess konfiguriert werden muss und nicht als preisgünstige Standardlösung zu haben ist.
Die durch RFID-Tags eröffnete Vision des Datenschattens stößt bei der Software zur Informationsverarbeitung an ihre Grenzen. Gefragt sind Softwarelösungen, die die riesigen Datenmassen, die die RFID-Tags sammeln, kanalisieren und der vorgesehenen Verwendung zuführen. Darüber hinaus verhindert besonders in Europa die beschränkte RFID-Sendeleistung die Verbreitung der Technologie. Erlauben die USA bei den RFID-Tags eine Sendeleistung von 2 Watt, gesteht die EU lediglich 0,5 Watt zu. Diese regulatorische Einschränkung fußt auf der abweichenden Einschätzung der Schädlichkeit elektromagnetischer Strahlung für den Menschen. Die Entscheidung Europas für eine eng beschränkte Sendeleistung geht auf die Ängste der Verbraucher ein, nimmt damit allerdings auch eine kürzere Funkreichweite und ein nachhaltig begrenztes Verbreitungspotenzial der RFID-Technologie in Kauf. Doch neben niedriger Sendeleistung, scharfen Elektrosmogrichtlinien und unzureichender Software stehen insbesondere in Deutschland auch die Datenschutzbestimmungen dem schnellen Erfolg der RFID-Chips noch im Weg. Verbraucherschutzverbände zeichnen das Schreckensbild des gläsernen Kunden und rufen teilweise dazu auf, durch handelsübliche Störsender die mögliche feingliedrige Datenerfassung zu verhindern. Wegen dieser schlechten Öffentlichkeit rückten bereits einige Unternehmen wieder von ihren Pilotversuchen mit RFID ab.
Insgesamt hängt der Erfolg von RFID im Massenmarkt zentral von der Entwicklung der Chip-Preise ab. Wenn der technische Fortschritt auch weiterhin im immensen Preisverfall der IT-Hardware mündet, hat die RFID-Technologie im Markt große Aussichten auf Erfolg, vorausgesetzt die Herausforderungen bei der Technologie sowie bei den rechtlichen Grundlagen sind lösbar und das Marketing kann den Privatkunden die Vorteile näher bringen. Allein im US-amerikanischen Einzelhandel dürfte der RFID-Markt mit der Umstellung auf die innovative Warenkennzeichnung von heute an bis 2010 um das 15fache auf EUR 2 Mrd. anwachsen. Im gleichen Zeitraum wird der Gesamtmarkt für RFID-Produkte in der EU-15 um etwa das 10fache auf EUR 4 Mrd. wachsen.
Die Entwicklung des Funketiketts profitiert von den erweiterten Einsatzmöglichkeiten der Elektrotechnik, die sich aus den immer kleineren Strukturen der elektronischen Bauelemente ergeben. Das Funketikett ist Ausdruck des Trends Effizienz. Dagegen hängt die Bewertung des Zusammenhangs zwischen der Einführung von RFID-Tags und dem erreichten Sicherheitsniveau in besonderem Maße vom Standpunkt des Betrachters ab. Verkäufer sehen im Funketikett die Chance für mehr Sicherheit, insbesondere beim Schutz ihrer Waren vor Diebstahl und vor Verlust. Dagegen verbinden einige Konsumenten mit der Vision des Datenschattens das Bild vom gläsernen Kunden und das Ende der Vertraulichkeit beim Einkauf.
Meist Gold, was glänzt
Die vielfältigen Produkt- und Prozessinnovationen der Informations- und Kommunikationstechnologie spiegeln die beiden bedeutenden Trends Effizienz und Sicherheit. Auch wenn bislang nicht alle technischen, ökonomischen und regulatorischen Hindernisse beseitigt sind, verfügen fast alle heute in der Öffentlichkeit hoch gehandelten IuK-Konzepte in diesem Jahrzehnt auch tatsächlich über erhebliches Verbreitungspotenzial. Die drei besonders aussichtsreichen IuK-Konzepte sind die Biometrie, die Open Source Software und das Funketikett. So verändert der Open Source Ansatz den Markt für kommerzielle Softwarelösungen grundsätzlich. Der Weltmarkt für biometrische Produkte wird zwischen 2002 und 2010 um das 40fache ansteigen. Der Gesamtmarkt für Funketikette wächst in Europa zwischen 2004 und 2010 um das 10fache. Gegenüber diesen extrem Erfolg versprechenden drei Outperformern werden die Chancen der immer wieder hoch gehandelten beiden IuK-Konzepte Internet-Telefonie und Grid Computing in der Öffentlichkeit überschätzt. So spricht insbesondere die Entgeltstrategie der traditionellen TK-Unternehmen gegen einen schnell durchschlagenden Erfolg der Internet-Telefonie im Massenmarkt. Beim Grid Computing sind es die engen Grenzen der Anwendungsgebiete, die den großen kommerziellen Erfolg unwahrscheinlich machen.
Die Durchdringung mit Informations- und Kommunikationstechnologien schreitet in allen Geschäftsbereichen ungehindert voran wenn auch seltener durch spektakuläre Schlagzeilen begleitet als noch vor wenigen Jahren. Die in der gesamten Ökonomie existierenden Bestrebungen nach mehr Sicherheit und verbesserter Effizienz bauen zwangsläufig auf neue Informations- und Kommunikationstechnologien. Folglich können Anbieter von Produkt- und Prozessinnovationen deutlich überdurchschnittliche Wachstumsraten erwarten.