This Week's OMG Top 20


Allerdings bleiben diese Daten bisher mangels geeigneter Suchmechanismen ungenutzt. Sie können moderne Dienste online direkt in ihre Geschäftsabläufe einfügen. In letzter Konsequenz ist das jedoch nicht entscheidend.

Weitere Nachrichten


Sie kommt nicht nur, weil wir sie eingeladen haben. Sie kommt auf eigenen Wunsch, weil sie sich ansehen möchte, wie wir das machen. Und weil sie das vielleicht auch europäisieren möchte, weil Europa unser Modell des IT-Gipfels, wenn ich es einmal so nennen darf, übernehmen will.

Alles in allem glaube ich, sind wir auf einem sehr guten Weg. Dies auch bei dem Thema Internet der Dienste, das uns heute hier bewegt. Ich erinnere mich ganz genau an die Fragen, die dort auftauchten: Was ist das überhaupt? Sie haben auch zu recht beschrieben, dass noch heute Journalisten und andere Interessierte fragen: Wie kann man das beschreiben?

Tatsächlich ist es nicht ganz so einfach zu beschreiben. Letztendlich braucht man Beispiele und da freue ich mich natürlich auch auf die Vorträge dieses Symposiums. Ich will vielleicht selbst auch ein wenig dazu beitragen. Darunter waren nicht nur Pauschalangebote. Viele Kunden kaufen Reiseleistungen einzeln im Internet und stellen sich selbst eine individuelle Reise zusammen. Viele von uns haben das schon getan und es werden immer mehr, weil man Individualität liebt, Flexibilität und vieles mehr.

Natürlich haben wir auch die Erfahrung gemacht, dass das Mühe, Zeit und auch etwas Wissen erfordert. Mit dieser neuen Technologie wird die Buchung einer solchen individuellen Reise deutlich einfacher. Und es wird einfacher, die Reise mit zusätzlichen Dienstleistungen zu kombinieren. Das ist eigentlich das Raffinierte. Versicherungen, Eintrittskarten für eine Theatervorstellung oder auch gesundheitliche Dienste.

Ich danke deshalb nochmals der Deutschen Akademie der Technikwissenschaften für die Einladung zum heutigen Symposium. Ich muss sagen, dass ich in diesem wunderbaren Raum schon viele wissenschaftliche Veranstaltungen erlebt habe, auch über 18 Uhr hinaus. Nach meiner Erinnerung kamen fast immer gute Ergebnisse heraus und dass das heute auch der Fall sein wird, daran habe ich gar keine Zweifel. Ich werde sehr zielbewusst und interessiert den Vorträgen lauschen.

Das Internet der Dienste ist ein spannendes Zukunftsthema, wie wir schon erfahren haben und acatech ist dafür genau der richtige Veranstalter.

Ich habe bereits erläutert, warum. Denn es geht um die Schnittstelle zwischen Wissenschaft und Wirtschaft. Und das ist es, worum es hier auch geht. Wenn wir hier unseren Vorsprung halten, den wir — glaube ich — haben, dann können wir für unsere Wettbewerbsfähigkeit etwas sehr Gutes tun. Bis zum nächsten Jahr wird weltweit ein Zuwachs von Milliarden Euro erwartet.

Das sind, wie jeder sieht, enorme Wachstumsraten. Wir alle nutzen das Internet und wissen: Das Netz bietet viele zusätzliche und nützliche Informationen. Doch wir wissen auch: Man kann nur schwer den Überblick behalten. Eine Internetrecherche ist manchmal wie die Suche nach der Nadel im Heuhaufen. Nicht immer, aber es kommt vor. Um hier besser voranzukommen, ist die Entwicklung neuer semantischer Technologien entscheidend.

Entsprechende Programme sollen Informationen aus dem Internet selbstständig interpretieren und automatisch weiterverarbeiten, d.

So wird eine intelligente Internetsuche möglich, ohne dass ein Mensch jeden Schritt der Suche selbst begleiten muss. Um eine intelligente Recherche geht es auch bei der Anwendung der neuen Technologien. Ein Beispiel ist die Nutzung im medizinischen Bereich, etwas, was uns alle interessiert. Per Ultraschall oder Computertomografie erzeugte Bilder sind eine wichtige Grundlage für die medizinische Diagnose und Therapie.

Sie ermöglichen es, Krankheiten frühzeitig zu erkennen und gezielt zu behandeln. Computerprogramme können den Arzt oder die Ärztin bei den verschiedenen Therapieschritten unterstützen. Der Computer soll lernen, Bilder zu interpretieren, mit anderen Patientendaten zu verknüpfen und daraus Schlüsse zu ziehen.

Hierzu vergleicht das Programm verschiedene Bildaufnahmen des Patienten miteinander und mit Bildern anderer Patienten. Anhand dieses Vergleichs sowie weiterer Informationen, wie etwa Labordaten, soll das Programm dann eigenständig einschätzen, ob eine Behandlung angeschlagen hat.

Hier sind innovative Suchdienste für eine deutsche digitale Bibliothek in Planung. Bibliotheken, Museen und Archive bringen ihre Schätze ins digitale Format. Die so gespeicherten Texte und Dateien werden digital verknüpft und besser zugänglich. Meine Damen und Herren, diese und andere neue komplexe Dienste setzen geeignete technische und organisatorische Rahmenbedingungen voraus.

Denn die modernsten Recherchedienste im Internet bringen nicht allzu viel, wenn der Zugang zum Netz zu langsam ist. Schnelles Internet durch Breitband ist heute so wichtig wie Strom- und Verkehrsnetze. Die Breitbandentwicklung in Deutschland verläuft erfreulicherweise gut. Der intensive Wettbewerb auf dem Telekommunikationsmarkt hat bislang zu vielfältigen Angeboten und auch niedrigen Preisen zum Nutzen der Verbraucher geführt.

Mittlerweile haben 97 Prozent der Haushalte die Möglichkeit, eine leistungsfähige Verbindung von mindestens einem Megabit pro Sekunde zu nutzen. Alle reden schon von viel mehr Kapazität: Es wird etwas länger dauern, aber dies wird unser nächster Schritt sein, der schon ganz konkret in Planung ist. Das ist der Bauernhof auf der Alm, um ein Extrembeispiel zu nennen. Aber auch das ist vielleicht wichtig und wir müssen sehen, dass wir hier auch die Technologien nutzen, die es gibt.

Es gibt ja nicht nur Glasfaser. Alle wollen natürlich Glasfaser haben, weil sie möglichst Megabit haben wollen oder mehr, aber es gibt auch Funklösungen und manches andere und deshalb suchen wir einen wettbewerbsorientierten, aber auch einen technologieneutralen Weg. Wir sind erfreulicherweise zu guten Ergebnissen gekommen in den Verhandlungen zwischen Bund und Ländern, was die so genannte digitale Dividende betrifft. Natürlich streiten wir uns jetzt noch ein bisschen mit den Ländern um die Kosten, aber das soll nicht das Thema von Wirtschaft und Wissenschaft sein.

Meine Damen und Herren, es geht natürlich auch immer um den Mittelstand in Deutschland. Sie tragen aber auch dazu bei, dass die technologischen Entwicklungen in die Häuser und Unternehmen gebracht werden und so unser Standort Deutschland weiter gestärkt wird. Insofern bieten auch die neuen Internetdienste Chancen für den Mittelstand.

Für die neuen Programme muss es Plattformen geben, denen der Kunde vertraut. Plattformen, auf denen die Dienste transparent, einfach und qualitätsorientiert angeboten werden.

Mit Programmsammlungen wie dem App-Store entstehen zurzeit erste Angebote. Hier können kleine und mittlere Unternehmen selbst zum Anbieter werden und eigene Dienste auf diese Plattformen einstellen. Und, auch das ist wichtig: Auch auf der Nutzerseite ergeben sich für mittelständische Unternehmen neue Möglichkeiten. Sie können moderne Dienste online direkt in ihre Geschäftsabläufe einfügen.

Muss zum Beispiel die Abrechnung für das eigene Geschäft gemacht werden, kann man bequem auf ein Online-Programm zurückgreifen. Das bedeutet, dass das Unternehmen auf ein kostspieliges unternehmenseigenes System verzichten kann. Auch die mittelständischen Unternehmen in Deutschland profitieren viel von einem Internet der Dienste. Mittlerweile gibt es ein Dutzend Projekte, die von mittelständischen Unternehmen geleitet werden. Die Zwischenbilanz kann sich sehen lassen.

Aber natürlich, wie immer, dürfen wir uns nicht darauf ausruhen. Es kommt darauf an, jetzt insbesondere die Forschungsergebnisse schnell in erfolgreiche Produkte und Dienste umzusetzen. Denn, das ist auch klar: Und der technologische Fortschritt entwickelt sich rasant weiter.

Mit dieser Technologie können sich Kunden Rechenleistung und Speicherkapazität für ihre Rechner über das Internet dazu holen. IT-Kapazitäten lassen sich so extern auslagern — so wie wir es schon von der Produktion und von verschiedenen Dienstleistungen ohnehin kennen. Das macht flexibel und spart Platz und Geld.

In der vergangenen Zeit haben wir verschiedene Datenschutzskandale erlebt: Hier waren zwar keine Internetdienste betroffen. Dennoch ist klar, dass diese neue Technologie nur Erfolg haben wird, wenn das Vertrauen der Kunden nicht enttäuscht wird. An der Lösung dieses Problems wird sich auch die Bundesregierung aktiv beteiligen.

Deshalb hat das Bundeswirtschaftsministerium gerade auch einen neuen Technologiewettbewerb gestartet. Es geht dabei vor allem um sichere Internetdienste oder auf neudeutsch: Sichere, verlässliche und kostengünstige Angebote für kleine und mittlere Unternehmen und den öffentlichen Sektor bereitzustellen, steht hier im Vordergrund.

Es ist fast unerlässlich, würde ich sagen, denn wir profitieren ja von Ihrem Wissen und wir sind auch gerne bereit, dies in die politischen Überlegungen mit einzubeziehen. Meine Damen und Herren, lassen Sie mich zum Schluss sagen, dass Deutschland und insbesondere die deutsche Volkswirtschaft die Impulse aus den Informations- und Kommunikationstechnologien braucht. Ich habe am Anfang gesagt, der Standort Deutschland ist einer, der weltweit hoch angesehen ist.

Aber dieses hohe Ansehen bedarf der täglichen Anstrengung, immer auf dem neuesten Stand zu sein. Ohne die besten Technologien werden wir unseren Wohlstand nicht halten können. Ich glaube, wir können diese Botschaft gar nicht genug verbreiten. Ich danke Ihnen allen für Ihre aktive Teilnahme an diesem Symposium.

Ich danke acatech als Veranstalter nochmals. Hierbei sollen vor allem unternehmensnahe Dienste und Dienstleistungen mithilfe des Internets angeboten und weitestgehend darüber erbracht werden.

Während die Web 2. Ziel des Programms ist eine neue internetbasierte Wissensinfrastruktur, die eine vereinfachte und gezieltere Nutzung des Wissens im Internet ermöglicht. Dazu müssen neue Märkte etabliert und der Innovationsstandort Deutschland gestärkt werden. Von zentraler Bedeutung für das Internet der Dienste ist die Entwicklung neuer semantischer Technologien.

Eine Abhilfe können semantische Technologien in zweierlei Hinsicht schaffen: Zum einen bieten semantische Modelle einen höheren Abstraktionsgrad und sind in der Fachsprache der Geschäftsexperten ohne spezielle IT-Kenntnisse abgefasst.

Damit schirmt man den Anwender von unnötigen technischen Details ab und erlaubt ihm stattdessen, in seiner gewohnten Terminologie zu arbeiten. Semantische Technologien ermöglichen aber auch einen höheren Grad an Automatisierung und Wiederverwendung von Informatikdiensten.

Das klassische Web hat den weltweiten Zugang zu digital gespeicherter Information drastisch verbessert. Aber dort sind die Inhalte nur maschinenlesbar, ohne maschinell verstehbar zu sein.

Das Symposium brachte Experten aus Wissenschaft und Wirtschaft zusammen, die die Ergebnisse, mit einem besonderen Fokus auf die entwickelten Anwendungsszenarien sowie deren erfolgreiche Positionierung auf dem Markt diskutierten. Der effiziente Zugriff auf Unternehmenswissen, wie etwa Expertisen, Ansprechpartner, Projekt- und Meilensteinpläne etc. Semantische Technologien bieten zahlreiche Möglichkeiten, um Daten mit Hintergrundinformationen zu ihrer Bedeutung anzureichern und sie mit weiteren relevanten Informationseinheiten zu verbinden.

Sie eröffnen aber auch neue Möglichkeiten zur Aneignung und Transfer von Wissen. Jede Informationseinheit steht dabei in Zusammenhang mit anderen Informationen innerhalb einer bestimmten Domäne. Das so aufbereitete Wissen kann schneller und effizienter durchsucht werden und bietet zudem eine Art der Informationsaufnahme, die den menschlichen Bedürfnissen und Angewohnheiten sehr nahe kommt, nämlich der Schaffung von Assoziationen von neuem zu dem bereits vorhandenen Wissen.

Dieses hat das Ziel, den Zugang zu Informationen zu vereinfachen, Daten zu neuem Wissen zu vernetzen und die Grundlage für die Entwicklung neuer Dienstleistungen im Internet zu schaffen.

Die Aufgabe des letzteren ist es, die in den anderen Gruppen entwickelten Algorithmen und Verfahren im Hinblick auf ihre Qualität zu testen und zu bewerten. In diesem Beitrag werden einige der entwickelten Technologien im Detail vorgestellt.

In Kapitel 2 wird das Management von Ontologien, jener formalen Wissensmodelle, die das Wissen eines Fachgebiets konzeptuell abbilden, beschrieben. Dabei werden die verschiedenen Werkzeuge zum Erstellen von Ontologien, zum Abbilden verschiedener heterogener Wissensstrukturen aufeinander und deren Kombination Mapping , zur Verfolgung von Änderungen an Ontologien Evolution und zum automatischen Schlussfolgern Reasoning vorgestellt. Dazu wurde eine Plattform für multimodale und situationsbewusste Dialogsysteme geschaffen, deren Architektur und Anwendungsbeispiele beschrieben werden.

Eine weitere Kerntechnologie stellt die Semantik-Visualisierung dar, die in Kapitel 4 beschrieben wird. Hierbei wird insbesondere auf eine komponentenbasierte, modulare Architektur eingegangen, die die Anwendbarkeit der Visualisierungen in verschiedenen Anwendungsszenarien unter Nutzung heterogener Daten für heterogene Benutzer erlaubt. Durch Methoden der strukturellen Verarbeitung 8 Müller In THESEUS werden auf Basis von Ontologien beispielsweise anatomische Zusammenhänge zwischen Organen modelliert, um die Suche in medizinischen Informationssystemen effizienter zu gestalten, oder die Funktions- und Ablaufeigenschaften industrieller Fertigungsanlagen abgebildet, um das Wissensmanagement in Vertrieb und Produktion zu unterstützen.

Das Erstellen von Ontologien, das Abbilden verschiedener heterogener Wissensstrukturen aufeinander und deren Kombination Mapping , die Verfolgung von Änderungen an Ontologien Evolution und das automatische Schlussfolgern Reasoning. Einige dieser Komponenten stehen sogar der gesamten wissenschaftlichen Community zur Verwendung frei zur Verfügung.

Im Bereich Ontology Design sind vor allem zwei entwickelte Methodiken zu nennen, die persistente Speicherung von Ontologien und die Disambiguierung von Entitäten eines Textes auf Basis einer zugrundeliegenden Ontologie.

Das Ergebnis dieser Datenbankanfrage wird in Axioms- und Entitätsobjekte überführt. Dies hat zur Folge, dass nur noch die gerade verwendeten Ontologieobjekte im Speicher gehalten werden müssen, wenn mit Ontologien gearbeitet wird.

Dies wird mittels der sogenannten spreading activation Technik erreicht, die auf ermittelten Teilgraphen der dazugehörigen Ontologie mit statistischen Methoden operiert. Dies bedeutet, dass verschiedene Personenkreise an der Erstellung einer Ontologie beteiligt sind und diese auch später sukzessive erweitern, sei es um neue Entitäten oder um neue Instanzen.

Dies erfordert aber auch eine gute Pflege der Ontologie, damit diese noch weiterhin in sich konsistent ist und verwendet werden kann. Beim Anytime Reasoning werden alle gefundenen Ergebnisse kontinuierlich ausgegeben und können schon verwendet werden.

Beim Approximate Reasoning werden beispielsweise richtige Lösungen, aber nicht alle möglichen oder die Menge aller richtigen Lösungen inklusive ein paar falscher Schlussfolgerungen ausgegeben. Mithilfe eines gleichzeitig mitlaufenden langsameren Reasoners können die Ergebnisse dann noch verifiziert oder ergänzt werden. Dabei wird einerseits die Anfrage per Schlüsselwort weiter spezifiziert, indem dem Benutzer mögliche Detaillierungen seiner Schlüsselworte bzw.

Des Weiteren kann der RDF-Graph nach weiteren Verbindungen zur ursprünglich gestellten Anfrage durchsucht werden um so neue Zusammenhänge anhand von Merkmalen wahrscheinlichkeitsgewichtet herzustellen. Beispielsweise kann ein Film als Deutscher Film klassifiziert werden, obwohl er explizit nicht als solcher bezeichnet wurde, indem die Produzenten, Schauspieler, Regisseure und die verwendete Originalsprache mit bekannten deutschen Filmen verglichen werden.

Wie können semantische Dienste im Internet gefunden, angesprochen und verknüpft werden und welche neuen Interaktionsformen sind damit möglich. Wahlster ; Becker Um diese Architektur im semantischen Internet der Dienste zu verwenden, wurde sie erweitert und modifiziert, siehe Abbildung 1. Der wesentliche Ablauf der Verarbeitung soll hier kurz skizziert werden.

Nach individueller Interpretation der Eingaben berechnet das Modalitätenfusionsmodul die Gesamtintention des Benutzers. Dazu werden der aktuelle Kontext und ein Benutzermodell hinzu gezogen.

Ist die Intention erkannt, berechnet das Dialog- und Interaktionsmanagement die Reaktion des Systems. Typischerweise ist dies der Aufruf eines Dienstes, etwa um Informationen zu beschaffen.

Dabei sind alle Module durch eine einheitliche, semantische Datenrepräsentation, die sogenannten erweiterten getypten Merkmalsstrukturen extended typed feature structures, eTFS verbunden. Dies führt nicht nur zu einer effizienteren Verarbeitung, sondern erleichtert auch die fehlerfreie Kommunikation.

Neben der einheitlichen semantischen Datenrepräsentation können alle Module auf eine mächtige Programmierschnittstelle API zugreifen, die komplexe Berechnungen mit eTFS standardisiert implementiert. Durch die einheitlichen Tools in allen Modulen wird erstmalig einem Entwickler für alle, sehr verschiedenartigen Aufgaben in der Dialog-Shell eine einheitliche Entwicklungsumgebung zur Verfügung gestellt.

Ein wichtiger Teil der ODP Plattform ist eine spezialisierte integrierte Entwicklungsumgebung, die auf frei zugänglichen Standards und Systemen aufsetzt. Ausgangspunkt einer Suche können Daten, z. Auf der Konsole mit einem Multitouch-Bildschirm können nun verschiedene Interaktionfenster Spotlets aktiviert werden, siehe Abbildung 2.

Das zentrale Spotlet ist die semantische Suche. Durch einfaches Ziehen des übertragenen Bildes auf dem Touchscreen zum Spotlet wird unmittelbar eine semantische Suche ausgelöst.

Die Such- 20 Pfleger Neben der Darstellung der Suchergebnisse, z. So können alle Objekte, zu denen das System in den semantischen Informationen auch Ortsdaten erfasst hat, also z. Museen, Firmen und Personen, auf einer Karte angezeigt werden. Auch der Internetdienst Twitter ist mit einem Spotlet angebunden. Touchscreen des Informationskiosk Diese neue Interaktionsform als Variante des Browsens in semantischen Datenbeständen in Verknüpfung mit Diensten erlaubt eine schnelle Navigation durch die Exponate im Theseus-Innovationszentrum und garantiert dabei die hohe Relevanz der gefundenen Daten.

Interaktion mit einem Smartphone auf der Basis der Dialog-Shell. Beschädigte Teile eines Autos können per Touch oder durch gesprochene Sprache markiert werden. Aktuelle Arbeiten entwickeln die erfolgreichen Ansätze der Dialog-Shell weiter: Eine einheitliche, semantische Repräsentation, starke Modularisierung, effiziente semantische Verarbeitung in der gesamten Kette, die Adaption an Situation und Personalisierung und eine eng gekoppelte Entwicklung von Mediation und Dienstekomposition.

Solche semantische Relationen erlauben einerseits eine effiziente Suche und unterstützen den Benutzer bei diversen Prozessen, wie das Editierung, die Annotation und die Verarbeitung von Informationen.

Semantisch aufbereitetes Wissen kann so schnell und effizient durchsucht werden und bietet die Möglichkeit der Schaffung von Assoziationen und damit der Schaffung von neuem Wissen.

Eine Herausforderung stellt in diesem Kontext die Visualisierung der komplexen semantischen Strukturen dar. Während semantisch annotierte Daten diverse Prozesse, etwa einer effizienteren Suche, enorm vereinfachen können, steht dem die Komplexität dieser Daten für die Visualisierung entgegen. Dabei spielt gerade die graphische Darstellung solcher Wissensdomänen für die zukünftige Interaktion mit semantischen Daten eine besondere Rolle.

Es ist vielmehr der Trend in Richtung alternativer Interaktionsformen, wie etwa der gesten- oder berührungsbasierten Interaktionen im Zusammenwirken mit semantischen Datenbanken zu kollektivem Wissen social web , der die Notwendigkeit effizienter graphischer Darstellungen unterstreicht. Die Interaktion mit graphischen Repräsentanten von Informationen ist nämlich der Interaktion in der natürlichen Welt am ähnlichsten. Dabei werden insbesondere Merkmale und Charakteristiken von semantischen Daten untersucht, die für die Visualisierung im Vordergrund stehen.

Deshalb wurden die unterschiedlichen Visualisierungen als Pool von adaptierbaren Komponenten konzipiert, die je nach Anwendungsfall und Benutzertyp angepasst werden können. In den folgenden Abschnitten werden die wesentlichen Konzepte, die die Semantik Visualisierung charakterisieren und eine auf verschiedenen Ebenen adaptierbare Lösung zur Visualisierung komplexer Semantik Daten anbieten, beschrieben.

Komponenten entwickelt, um in möglichst vielen Anwendungsszenarien eingesetzt werden zu können. Sie wurden daher so konzipiert, dass sie in existierende UI-Umgebung verschiedener Applikationen und Szenarien mittels einer modularen Architektur Modular Graphical Framework integriert werden können. Dabei ist die Architektur in Bereiche unterteilt, die für unterschiedliche Prozesse der Interaktion mit semantischen Daten angepasst sind: Stellt unterschiedliche Visualisierungstechniken für semantische Informationen bereit, die für die Vermittlung von Wissen an den Benutzer konzipiert wurden und ihn bei der Suche innerhalb der Daten unterstützt.

Stellt Funktionalitäten zum Erstellen, Ändern bzw. Aktualisieren von semantisch strukturiertem Wissen bereit. Jeder dieser Bereiche realisiert verschiedene Arten der Interaktion bzw. Dabei können die Bereiche an die spezifischen Anforderungen der Endnutzer verschiedener Anwendungsszenarien sowie an die Datenstruktur angepasst werden.

Der modulare Aufbau bietet die Basis sowohl für adaptierbare graphische Elemente als auch für eine Integrations- und Kombinationsbasis mit möglichst geringem Aufwand. Dabei sind nicht nur die Visualisierungen als eigenständige Komponenten entwickelt, sondern alle Funktionalitäten, die etwa zur Datenintegration, der Informationssuche, der Analyse der Benutzerinteraktion uvm. Auf diese Weise kann SemaVis für heterogene Daten, in unterschiedlichen Applikationen oder Webumgebungen und für verschiedene Benutzer eingesetzt werden.

Diese komplexen Sachverhalte können durch weitere Informationsdimensionen, wie etwa semantische Relationen, Zeitabhängigkeit der Daten oder einer taxonomischen Struktur in ihrer Komplexität die Kenntnisse und Aufnahmefähigkeit durchschnittlicher Benutzer übersteigen und den Benutzer überfordern.

Dabei wird jeweils die Komplexität der zu visualisierenden Informationen reduziert und auf verschiedene Visualisierungen in einem User Interface UI dargestellt. Somit kann die Reduktion der Komplexität ohne Informationsverlust gewährleistet werden. Durch eine neuartige Anbindung von Daten und Visualisierungen bietet das SemaVis Framework die Möglichkeit, sowohl Visualisierungen miteinander zu koppeln als auch zu entkoppeln.

Somit ist es mit dem Wissenscockpit möglich, Informationen auf folgenden Weisen zusammenzuführen und damit einen Mehrwert gegenüber existierenden Visualisierungen zu schaffen: Visualisierung gleicher Daten mit gleichen Visualisierungen —— Komparative Sicht auf Visualisierungsebene: Visualisierung unterschiedlicher Daten mit gleichen Visualisierungen —— Aspektorientierte Sicht: Visualisierung gleicher Daten mit verschiedenen Visualisierungen —— Komparative Sicht auf Datenebene: Visualisierung verschiedener Daten mit verschiedenen Visualisierungen 4.

Die Visualisierungskomponenten werden in drei unterschiedlichen Klassen kategorisiert Dabei verfügt jeder der Visualisierungen über eigenständige Parametrisierungsmöglichkeiten. Dabei wird basierend auf den Benutzerinteraktionen und der Struktur der Daten Semantics eine Auswahl von einer oder mehreren Visualisierungen getroffen, die im späteren Verlauf individuell parametrisiert werden s.

Adaption der Visualisierungstypen 31 Schäfer Et al. Mit dieser Eigenschaft ist SemaVis in der Lage, basierend auf Empfehlungsdiensten30, Benutzermodellen oder Datencharakteristiken31 eine automatische Adaption vorzunehmen und eine adäquate Benutzerschnittstelle für die Visualisierung der semantischen Daten zur Verfügung zu stellen.

Dabei können heterogene semantische Formate zur Laufzeit eingebunden und visualisiert werden. Diese umfassen sowohl die Beziehungen zwischen Objekten und Ereignissen über mehrere Bilder hinweg als auch die situativen Kontexte und den Anwendungskontext. Ein prominentes Beispiel für derartige Suchanfragen ist die Identifizierung von Personen in Videosequenzen. Einfache Gesichtserkennungs-Ansätze erfordern ein Modell der betreffenden Person und neigen dazu, in schlecht konditionierten Umgebungen zu versagen.

Ein alternativer Ansatz besteht darin, Bedingungen der Beobachtung einzubeziehen, um die Rolle zu be- 30 Breyer Aufgrund der starken Zusammenhänge zwischen Rollen, Personen und ihren Identitäten, ermöglicht das Wissen einer dieser Zusammenhänge oft, die anderen daraus abzuleiten.

Den Ausgangspunkt bilden dabei die Ergebnisse automatischer Bildanalyseverfahren, die einfach geartete Informationen und Merkmale aus den Videosequenzen extrahieren. Eine robuste Gesichtserkennung lokalisiert Personen zuverlässig in den einzelnen Frames des Videos, auch wenn sie nicht direkt in die Kamera schauen.

Über ein Tracking der Gesichts-Position über aufeinanderfolgende Frames erfolgt ein erstes Clustering. Daher folgt ein weiterer Clustering-Schritt. Da hierbei im Gegensatz zu einer klassischen Identifikation nicht auf die Erkennung einer Person abgezielt wird, sondern nur überprüft wird, ob die beobachtete Person in anderen Shots der Sendung zu sehen war, können Merkmale berücksichtigt werden, die nur in dem aktuellen Kontext TV-Show bestehen z. Daher werden auf Basis der Gesichtslokalisationsdaten zugehörige Haar- und Brustregionen bestimmt, die beim Ähnlichkeitsvergleich mit berücksichtigt werden.

Dieses robuste Clustering-Verfahren berechnet für jede im Video gefundene Gesichts-Instanz einen Merkmalsvektor, um diesen mit denen früherer Gesichts-Instanzen zu vergleichen. Auf diese Weise wird für die Gesichts-Instanzen deren relative Auftretens-Häufigkeit innerhalb einer Sequenz bestimmt. In Kombination mit einer groben textuelle Annotation, die manuell durch einen Archivar des Senders erstellt wurde, können dann die Rollen und dadurch auch die Identitäten in dem Video zugeordnet und gekennzeichnet werden.

Beginnend mit eindeutigen Zuordnungen und angemessener Kaskadierung können die meisten Personen erfolgreich identifiziert und gekennzeichnet werden. Dabei spielen bei der Suche nach und der Identifikation von ausgewählten Ereignissen in Videosequenzen die Kontextinformationen eine essentielle Rolle. Im Endeffekt legen diese die Suchstrategie in den zur Verfügung stehenden Metadaten entscheidend fest und prägen damit die Ergebnisqualität. Dabei werden unsichere Aussagen aus verschiedenen Quellen zu einer Gesamtaussage kombiniert, sodass deren Treffsicherheit besser ist als die jeder einzelnen Aussage.

Sie ermöglichen es, mit Unsicherheit behaftete Aussagen zu neuen Aussagen zu kombinieren, wobei die ursprünglichen Unsicherheiten bei der Berechnung 32 Han Der Vorteil dieser Verfahren liegt darin, dass sich probabilistische Ereignisse mit einem Logik-Kalkül verbinden lassen und Entscheidungen über weitere Prozessschritte während der Laufzeit getroffen werden können.

Die Probalisitische Logik kombiniert die Stärken von Logik- mit Wahrscheinlichkeitskalkülen, sodass einerseits die Expressivität von binomialer Logik für strukturierte Aussagensysteme zur Verfügung stehen, und andererseits auch Wahrscheinlichkeiten, um den Grad der Gültigkeit dieser Aussagen beschreiben zu können.

Das gesamte Filmmaterial umfasst ca. Die GesichtLokalisierung hat darin ca. Der Zugriff auf diese Metadaten wird durch eine relationale Datenbank zur Verfügung gestellt. Eine grobe textliche Annotation, welches manuell von einem Archivar des Senders geschrieben wurde, wird verwendet, um die InterviewSzenen zu identifizieren. Die Annotation enthält die Namen der teilnehmenden Gäste.

Basierend auf diesen Midlevel-Metadaten war es mit dem vorgeschlagenen Algorithmus möglich, fast alle der erschienenen Gäste korrekt zu benennen.

Die Interviews mit Prominenten nehmen in den Sendungen einen wesentlichen Anteil ein und bieten daher einen sehr guten Ansatzpunkt für die richtige Zuordnung von Gesichtsbildern. Bei Interviews gilt im Allgemeinen, dass der Interviewte häufiger im Fernsehbild dargestellt wird, als der Interviewer. Die Identifikation eines Prominenten durch das Herausfinden des richtigen zugehörigen Portraitbildes wurde auf dieser Basis implementiert.

Dazu werden nach Wahl eines Prominentennamens aus der textuellen Zusammenfassung alle zugehörigen Videosequenzen ermittelt, in denen dieser evtl. Als zusätzliches Kontextwissen zur Identifizierung des Gastgebers wurde das Faktum, dass der Gastgeber als erstes die Fernsehbühne betritt, verwendet, so dass dadurch die Interviewer-Rolle für die gesamte Sendung besetzt werden konnte.

Sobald die Rollen den gefundenen Clustern zugeordnet werden konnten, war es möglich, jeder Person d. Da in dieser neben den Namen der Prominenten auch die Namen von weiteren passiven Personen erwähnt werden, hängt die richtige Zuweisung eines Namens oft von der Interpretation des Annotationstextes ab und ist deshalb eine mögliche Fehlerquelle. Als erste Anfrage wurde eine Suche nach den pfiffigsten Wetten realisiert, bei der der Wettkönig zusammen mit der entsprechenden Wette als Ergebnis gefunden werden sollte.

Einstiegspunkt bildete die animierte Grafik zur Ermittlung des Wettkönigs, die aus dem Ergebnis der Logo-Erkennung erhalten werden konnte. Darauf basiert konnte dann unter Zugriff auf die textuelle Zusammenfassung die zugehörige Wette gefunden werden vgl. User Interface der rollenbasierten Identitätserkennung. Gesichter werden mit einer Bounding Box markiert und der Name der Person wird eingeblendet. Das Navigationsfenster ist rechts dargestellt.

Hier kann der Nutzer z. Gleichzeitig signalisierten einige aufgetretene Fehlklassifikationen, dass die vorhandenen Metadaten nicht in allen Fällen ausreichen, bestehende Mehrdeutigkeiten aufzulösen. An dieser Stelle könnte eine zuverlässige Transkription der Audiodaten wertvolle Hilfe leisten.

Das Test-Szenario zeigt, dass das experimentelle System je besser funktioniert, desto mehr Gesichts- Cluster mit den richtigen Tags versehen sind. Korrekt erkannte Gesichter werden später richtig wiedererkannt. Neue Gesichter können dagegen zu Fehlern führen, weil sie bislang nicht im Identitäts-Speicher enthalten sind und keine AbleitungsRegeln angewendet werden können. In einigen Fällen hilft der Ähnlichkeitsvergleich der visuellen Merkmale, die richtigen Etiketten vorherzusagen.

Einige dieser Technologien wurden im Rahmen dieses Beitrags vorgestellt und examplarisch beschrieben. Das Ontologiemanagement kann dabei als eine zentrale Basistechnologie für das Internet der Dienste angesehen werden.

Die neuen Ansätze der Dialog-Shell umfassen eine einheitliche, semantische Repräsentation, eine starke Modularisierung, effiziente semantische Verarbeitung in der gesamten Kette, die Adaption an Situation und Personalisierung und eine eng gekoppelte Entwicklung von Mediation und Dienstekomposition. Eine weitere Kerntechnologie stellt die semantische Visualisierung von Informationen dar.

Für die Realisierung der Visualisierung wurde eine komponentenbasierte modulare Architektur entwickelt, die es ermöglicht, verschiedene Arten von Visualisierungen in Relation zu einander zu setzen und so unterschiedliche Benutzerschnittstellen für verschiedene Szenarien zu gestalten.

Das Zusammensetzen dieser Visualisierungen als Wissenscockpit kann unter Nutzung graphischer Attribute weiter parametrisiert werden. Weiterhin ermöglicht SemaVis eine automatische Anpassung der Visualisierung basierend auf den Eigenschaften des Benutzers oder den zugrunde liegenden Daten. Somit stellt SemaVis eine Basistechnologie zur Verfügung, die eine einfache, intuitive und graphische Interaktion mit heterogenen, semantischen Daten ermöglicht.

Hierbei geht es um eine rollenbasierte Identitäten-Erkennung von Personen in TV-Sendungen, die auf automatischen Bildanalyseverfahren basieren, die einfach geartete Informationen und Merkmale aus den Videosequenzen extrahieren.

Hierzu zählen unter anderem Verfahren zur zeitlichen Videosegmentierung, zur robusten Gesichtserkennung und zur Logo-Erkennung. Literaturverzeichnis Alexandersson Alexandersson, J. The Basic Operation for Discourse Processing. Foundations of Multimodal Dialogue Systems. Becker Becker, T.: Spektrum Akademischer Verlag, Bicer Bicer, V. Bock a Bock, J. Article in Press, available online 15 August Bock b Bock, J.: Bock c Bock, J.

Ontology Alignment in the Cloud. Bock Bock, J. Breyer Breyer, M. In HCI International Burkhardt Burkhardt, D. Chesapeake, AACE, , p. Grimm Grimm, S. Elimination of Redundancy in Ontologies.

Han Han, S. Toward contextual forensic retrieval for visual surveillance: Challenges and an architectural approach. Kleb Kleb, J. Müller Müller, H. IAPR Newsletter 32 , p. A Concept for the Visualization of Semantics as Maps. Nazemi a Nazemi, K. Orchestration of Multiple Visualizations for Knowledge-Exploration. International Journal of Advanced Corporate Learning 3 , p.

Nazemi b Nazemi, K. Interaction Analysis for Adaptive User Interfaces. Advanced Intelligent Computing Theories and Applications: Petersohn Petersohn, C.: Temporal video structuring for preservation and annotation of video content, Proc. Pfleger Pfleger, N.: Universität des Saarlandes, Saarbrücken, Porikli Porikli, F. Covariance tracking using model update based on lie algebra. Smeaton Smeaton, A. Sonntag Sonntag, D. Stab Stab, C. Advances in Visual Computing.

Wahlster Wahlster, W.: Dialogue Systems Go Multimodal: Der einfache wirtschaftliche Austausch zwischen einer Leistung Geld und einer Gegenleistung Produkt wird immer mehr an Bedeutung verlieren. Kunden kaufen schon heute immer seltener ein singuläres Produkt und geben dafür eine Summe X aus.

Vielmehr erwerben Sie Lösungen, Dienstleistungen, Beratung — kurz: Wirtschaftliche Transaktionen wandeln sich zu wechselseitigen sozialen Transaktionen: Durch das Internet befinden sich Menschen heute schon inmitten einer interaktiven Wertschöpfungskette entlang komplexer Dienstleistungssysteme. Und das über Branchengrenzen hinweg. In allen entwickelten Ländern vollzieht sich dieser Strukturwandel von der physischen zur immateriellen Wertschöpfung.

Der Anteil der Produktion an der volkswirtschaftlichen Wertschöpfung sinkt. An Bedeutung gewinnen der tertiäre Sektor der Dienstleistungen und der quartäre Sektor der Wissensarbeit. Befördert wird dieser Trend durch moderne Informations- und Kommunikationstechnologien: Sie ermöglichen beispielsweise eine schnelle Interaktion mit Kunden und verändern die Art und Weise, wie Mehrwert geschaffen und konsumiert werden kann.

Sie vernetzen und digitalisieren einzelne Teilsysteme und Partner weltweit, statten Angebote mit Informationen aus und sind somit Treiber für eine serviceorientierte und kollaborative Form der Wertschöpfung. Mit der Transformation zu einer serviceorientierten Wirtschaft wird der sichere Umgang mit den modernen Werkzeugen der Informations- und Kommunikationstechnologien zu einer Schlüsselqualifikation.

Die Kompetenzanforderungen werden weiter steigen. Nur so sind die Herausforderungen unserer Zeit zu meistern. Wenn von Herausforderungen die Rede ist, sind vor allem die heute noch häufig sehr ineffizienten Abläufe und Systeme gemeint, mit denen die Menschen arbeiten und ihr tägliches Leben gestalten: Diese Herausforderungen sind vielfach verknüpft und dadurch zu komplex, als dass sie mit einem singulären Produkt bedient oder gar gemeistert werden könnten.

Wenn wir über intelligente Verkehrswege, über ein intelligentes Gesundheitssystem oder über die intelligente Vernetzung einer Stadt sprechen, haben wir es automatisch mit dem Zusammenspiel von technischen und sozialen Systemen zu tun — und diese Kombination durchdringt mehr und mehr unsere Arbeits- und Lebenswelten.

Mehr noch, diese Servicesysteme werden zur wesentlichen Voraussetzung für Innovation, Wachstum und Beschäftigung. Das bedeutet aber auch, dass in dieser Service-Revolution diejenigen Unternehmen und Gesellschaften besser bestehen werden, denen es am schnellsten gelingt, die benötigten wissenschaftlichen Erkenntnisse zu erlangen, ihre Mitglieder damit auszustatten und den Transfer in die Praxis in der Breite voranzutreiben.

Es geht um die Gestaltung und das Management dieser digitalen und vernetzten Systeme. Und dafür ist eine interdisziplinäre und damit praxisgerechte Denkweise über technische, wirtschaftliche und soziale Fachdomänen hinweg notwendig. Eine wichtige Basis bildet eine neu-formierte Service Science. Die IBM hat sich hier sehr frühzeitig engagiert - unter anderem und ganz konkret hier in Deutschland1.

Service Science integriert Erkenntnisse aus verschiedenen Wissensgebieten wie etwa Ingenieurwissenschaften, Informatik, Wirtschaftswissenschaften oder Soziologie.

Sie produziert und vermittelt geeignete Theorien, Konzepte, Methoden und Werkzeuge für die Schaffung neuartiger Dienstleistungen und ihre Verbreitung mittels Informations- und Kommunikationstechnologien. Und mit ihrer Hilfe können Menschen in Wirtschaft, Verwaltung und Wissenschaft optimal auf Wachstumschancen durch Dienstleistungen und dienstleistungsorientierte Wertschöpfung vorbereitet werden.

Denn sie verbessert das Verständnis für neue Dienstleistungen, lässt neu entstehenden Bedarf rascher erkennen und erleichtert die kreative Entwicklung und erfolgreiche Vermarktung entsprechender Angebote. Die dramatische Veränderung im Wertschöpfungsmix müssen wir aber vor allem in den Unternehmen gestalten und umsetzen. Politik, Verbänden und Forschungseinrichtungen obliegt dabei die Aufgabe, Impulse zu geben, damit dieser Wandel sich zügig und wettbewerbsorientiert vollzieht.

Ein solcher Wandel ist keine Selbstverständlichkeit. Man wandelt sich nicht einfach mal so. Es ist harte Arbeit, sie erfordert Mut und festen Willen.

Dieser schrumpfte allerdings rapide. Denn der Markt hatte sich so sehr weiterentwickelt und sich dabei weit vom Kerngeschäft der IBM entfernt, dass das Unternehmen dringend handeln musste. Erstens das Unternehmen zusammen zu halten - obgleich ihm viele Analysten die Zerschlagung und Versilberung der Einzelteile nahelegten. Energieversorger werden nicht einfach mit Computern ausgestattet, sondern werden bei Entwicklung, Aufbau und Betrieb von Smart Grids umfassend unterstützt, in Deutschland beispielsweise im Projekt E-Energy2.

In diesen intelligenten Stromnetzen kommen Sensoren, Messgeräte, digitale Steuerungselemente und Analyseinstrumente zum Einsatz, die den Elektrizitätsverbrauch in Echtzeit überwachen, Stromverluste im Netz orten, variable Gebührensätze ermöglichen und besonders sparsame Kunden in dynamischen Tarifmodellen belohnen.

Das Angebotsportfolio der IBM hat sich mithin dramatisch verändert. Die fast sprichwörtliche Hardware-Orientierung ist Vergangenheit. Diese Verschiebung wird stetig weiter vorangetrieben.

Zukäufe finden fast nur in margenstärkeren und innovativen Software- und Services-Feldern statt. Dieses Geschäftsfeld umfasst Verfahren zur Analyse und Lösung hochkomplexer Herausforderungen, zur Prognostik und zur darauf aufbauenden Optimierung von Geschäftsprozessen und -modellen. Das gesamte Daten- und Informationsmanagement in Unternehmen wird entsprechend ausgerichtet.

Was ist damit gemeint? Und was hat das mit Services zu tun? Gemeint ist die weltweite Vereinheitlichung und Zusammenführung der Wertschöpfungskette. So hat zum Beispiel nicht mehr jede Landesgesellschaft einen eigenständigen Einkauf. Das steuert weltweit ein Team mit Sitz in Schanghai.

Dabei ist völlig unerheblich, wo diese daheim sind. Vor allem geht es hier um den nach global einheitlichen Prinzipien organisierten und koordinierten Zugriff auf den Rohstoff Wissen. Sie schlägt sich gut im weltweiten Wettbewerb. Dafür muss sie allerdings stets auf den Zehenspitzen bleiben, ihre Qualifikation und Fähigkeiten immer weiter ausbauen.

Dann schafften sie es auch, 2 Vgl. So leistet das deutsche Finanz-Team zum Beispiel das europäische Rechnungswesen weitestgehend aus Ehningen. Sein Team gewinnt dank herausragender Kompetenzen in bestimmten Feldern immer wieder Entwicklungsaufträge, um die es im internen Wettbewerb der immerhin 40 Labore der IBM weltweit steht. Innovative Services gehören zu den Stärken dieser Mannschaft. Aber was macht eigentlich innovative Services aus? Ausgangspunkt ihrer Entwicklung sind meistens die Digitalisierung und Vernetzung ehemals analoger und kaum verbundener Abläufe.

Wenn zum Beispiel Güter nicht mehr auf physischem Weg transportiert, sondern in digitaler Entsprechung elektronisch distribuiert werden, dann verändert das sowohl die zugrunde liegenden Wertschöpfungsketten der Hersteller und Verbreiter, als auch die Entgegennahme und Nutzung durch den Konsumenten.

Ein aktuelles Beispiel sind Informationsdienstleister, zum Beispiel Verlage. Ihre Güter sind Unterhaltungs-, Nachrichten- oder Bildungsinhalte, die bisher auf Papier gedruckt auf physischem Verbreitungsweg zum Leser gelangen. Den Gütern wohnt bereits die Dienstleistung der Inhaltsrecherche, -aufbereitung und -wiedergabe inne. Tritt an die Stelle der physischen Verbreitung nunmehr die digitale, dann eröffnet das für die Verbreitung und Nutzung von Inhalten vielfache neue Möglichkeiten.

Ob sich damit ebenso Geld verdienen lässt, was das für die Wahrung von Schutzrechten bedeutet, wie Vernetzung von Informationen nahezu schrankenlose Transparenz schafft und welche Dienste daraus wiederum entstehen können, beschäftigt nicht wenige Verlage und ruft — ganz ähnlich wie vor wenigen Jahren in der Musikindustrie — ganz neue Mitspieler auf das Feld. Eine innovative Dienstleistung macht also ihr Fokus und ihre Auswirkung aus: Ist sie eine Geschäftsprozess-Innovation?

Läuft etwas schlanker, effizienter, qualitativ hochwertiger, nützlicher? Oder ist sie sogar eine Geschäftsmodell-Innovation? Stellt sie die Leistung eines Unternehmens auf ein neues wirtschaftliches oder qualitatives Fundament? Diese Fragen muss sich jeder Dienstleister stellen. Und eine saubere Antwort für die Frage nach dem Return-on-Investment parat haben. Denn die stellt der Servicenehmer. Gerade in wirtschaftlich angespannten Zeiten ist er besonders kritisch in diesem Punkt.

Kurz gefasst ist es eine Agenda und Strategie des Unternehmens und beschreibt den Beitrag des Unternehmens, Leben und Arbeit auf dem Planeten besser zu gestalten. Hinter dieser Agenda stehen drei zentrale Beobachtungen: Die Welt wird immer weiter von digitaler Technologie durchdrungen.

Menschen können heute keine drei Meter weit gehen, ohne Chips und Speichern, Kameras und Sensoren, Computern und Recheneinheiten zu begegnen. All diese digitalen Einheiten werden zunehmend miteinander verbunden.

Es entsteht das Internet der Dinge, der virtuelle Interaktionsraum aller digitalen und vernetzten Gegenstände. Es ist die logische Fortsetzung und Erweiterung des Internets der Informationen, an dessen Nutzung wir Menschen uns inzwischen so gewöhnt haben. Aus diesen Verbindungen und Interaktionen entstehen Daten. Wir können sie analysieren, Muster erkennen, Informationen aus ihnen ableiten. Aus Informationen entsteht Wissen und daraus entstehen bessere Entscheidungen. Hier schlagen wir die Brücke zum Internet der Dienste.

Das ist alles andere als trivial. Wir beobachten eine Explosion der Datenmengen. An einem kurzen Beispiel lässt sich das erläutern: In Deutschland gibt es verschiedene Modellversuche mit sogenannten Smart Meters.

Digitale Stromzähler, die dem Energieversorger und dem Verbraucher laufend aktuelle Daten über die Energienutzung liefern und damit zum Beispiel dynamische Tarifierung ermöglichen. Damit können Verbraucher zu besonders günstigen Zeiten waschen und teure Lastspitzen vermeiden.

Das dabei anfallende Datenvolumen steigt sprunghaft an: Herkömmliche Zähler werden einmal pro Jahr abgelesen. Statt 10 Millionen Datentransaktionen pro Jahr bei analogen Zählern ergibt das über Milliarden Transaktionen in der digitalen Welt.

Bei einer solchen Umstellung entstehen neue Dienstleistungen. Dynamische Tarifmodelle müssen entwickelt und vermarktet werden, Installationen geplant und durchgeführt, Handwerker und Techniker geschult und Verbraucher aufgeklärt werden.

Spezialisierte Dienstleister können die Datenverarbeitung und -auswertung optimieren, die Berechnung von Nutzungsempfehlungen entwickeln oder Prämienmodelle für besonders umweltbewusstes Verhalten ausarbeiten, einführen und bedienen. Und das alles nur, weil — salopp formuliert — ein paar digitale Bauteile an jede Versorgungsleitung angeklemmt werden können. Im Bereich der Energieversorgung spielt das Wetter eine wesentliche Rolle - zum Beispiel für den Energiezufluss aus regenerativen Quellen in das Netz, aber auch für die Prognose von Lastspitzen.

Dabei kommt es vor allem auf die Fähigkeit an, Zusammenhänge und Muster in den Daten zu erkennen - zweifellos ein Feld, das das Prädikat wissensintensiv tatsächlich verdient. Je komplexer und intensiver die Integration dieser verschiedenen Daten, desto höher die Wertschöpfung.

Komplexität ist allerdings auch der Feind einfacher Antworten. Solche und ähnliche Szenarien und Lösungen werfen bei Führungskräften aus Unternehmen und Verwaltungen, bei Politikern und Wissenschaftlern konkrete Fragen zur Umsetzung auf. Hier geht es um die Entwicklung vom Autohersteller zum Mobilitätsdienstleister. Ausgangspunkt ist das Produkt. Genauer die Erneuerung des Antriebsstrangs. Denn der klassische Verbrennungsmotor ist ein Konzept mit endlicher Zukunft.

Mehr und mehr setzt sich allerdings die Erkenntnis durch, dass das Auto vom wirtschaftlichen zum ökologischen Statussymbol mutiert.

Wenn 10jährige als Berufswunsch Klimaretter statt Rennfahrer angeben, ist es Zeit für neue Geschäftsmodelle. Folglich sind zum Beispiel Car-Sharing-Konzepte inzwischen gar nicht mehr so randständige Erscheinungen. Und auch die IBM leistet ihren Beitrag dazu. Verfügbare Autos im direkten Umkreis findet man in einem Stadtplan auf dem Handy, geht dort hin, öffnet das Auto mit einem Chip, der auf dem Führerschein klebt, steigt ein und fährt wohin und wie lange man will.

Am Ziel angekommen lässt man das Auto einfach stehen. Das klappt ohne vorherige Reservierung. Abgerechnet wird nach Nutzungsdauer.

Ergänzungen und Erweiterungen sind leicht denkbar, wenn man die Datenerfassung und Auswertungs-Intensität weiter erhöht. Die eigentliche Herausforderung im städtischen Verkehr liegt in der intelligenten Steuerung - und zwar ganz besonders bei multimodalem Verkehr, also Mobilität, die verschiedene Verkehrsmittel und -systeme umfasst.

Netzwerke müssen erweitert werden, neuartige Partner aufgenommen werden. Und plötzlich gibt es keine Prozent-Kontrolle der gesamten Wertschöpfungskette mehr. Niemandem gehört das System so ganz. Wenn fünf verschiedene Transportmittel für den Weg von A nach B verfügbar sind, besteht die Kernleistung des Gesamtsystems auf der mobil verfügbaren, optimalen und ganzheitlichen Empfehlung, Buchung und Abwicklung. Die Basis dafür sind historische, aktuelle und prognostische Daten aus allen Subsystemen.

Was ist nötig, damit solche komplexen Systeme funktionieren? Vier Punkte, deren Beherzigung entscheidend für die Entwicklung innovativer Services ist: Das Verständnis der Leistung wandelt sich von Produkt zu Service - die hybride Leistung bündelt beide und baut damit eine Brücke für alle, die heute noch in der Produktwelt verhaftet sind und sich fragen, wie sie an der Dienstleistungswirtschaft partizipieren können.

Technologie ist der Treiber für Innovation. Digitalisierung, Vernetzung und intelligente Datennutzung sind die Eckpfeiler moderner Servicekonzepte. Ausgangspunkt einer Suche können Daten, z. Auf der Konsole mit einem Multitouch-Bildschirm können nun verschiedene Interaktionfenster Spotlets aktiviert werden, siehe Abbildung 2.

Das zentrale Spotlet ist die semantische Suche. Durch einfaches Ziehen des übertragenen Bildes auf dem Touchscreen zum Spotlet wird unmittelbar eine semantische Suche ausgelöst. Die Such- 20 Pfleger Neben der Darstellung der Suchergebnisse, z. So können alle Objekte, zu denen das System in den semantischen Informationen auch Ortsdaten erfasst hat, also z.

Museen, Firmen und Personen, auf einer Karte angezeigt werden. Auch der Internetdienst Twitter ist mit einem Spotlet angebunden. Touchscreen des Informationskiosk Diese neue Interaktionsform als Variante des Browsens in semantischen Datenbestän- den in Verknüpfung mit Diensten erlaubt eine schnelle Navigation durch die Exponate im Theseus-Innovationszentrum und garantiert dabei die hohe Relevanz der gefunde- nen Daten.

Interaktion mit einem Smartphone auf der Basis der Dialog-Shell. Beschädigte Teile eines Autos können per Touch oder durch gesprochene Sprache markiert werden. Aktuelle Arbeiten entwickeln die erfolgreichen Ansätze der Dialog-Shell weiter: Eine einheitliche, semantische Repräsentation, starke Modularisierung, effiziente semantische Verarbeitung in der gesamten Kette, die Ad- aption an Situation und Personalisierung und eine eng gekoppelte Entwicklung von Mediation und Dienstekomposition.

Solche semantische Relationen erlauben einerseits eine effiziente Suche und unterstützen den Benutzer bei diversen Prozessen, wie das Editierung, die Annotation und die Verarbeitung von Informationen. Seman- tisch aufbereitetes Wissen kann so schnell und effizient durchsucht werden und bietet die Möglichkeit der Schaffung von Assoziationen und damit der Schaffung von neuem Wissen.

Eine Herausforderung stellt in diesem Kontext die Visualisierung der komplexen seman- tischen Strukturen dar. Während semantisch annotierte Daten diverse Prozesse, etwa einer effizienteren Suche, enorm vereinfachen können, steht dem die Komplexität dieser Daten für die Visualisierung entgegen. Dabei spielt gerade die graphische Darstellung solcher Wissensdomänen für die zukünftige Interaktion mit semantischen Daten eine besondere Rolle.

Es ist vielmehr der Trend in Richtung alternativer Inter- aktionsformen, wie etwa der gesten- oder berührungsbasierten Interaktionen im Zusam- menwirken mit semantischen Datenbanken zu kollektivem Wissen social web , der die Notwendigkeit effizienter graphischer Darstellungen unterstreicht. Die Interaktion mit graphischen Repräsentanten von Informationen ist nämlich der Interaktion in der natür- lichen Welt am ähnlichsten.

Dabei werden insbesondere Merkmale und Charakteristiken von semantischen Daten untersucht, die für die Visualisierung im Vordergrund stehen. Deshalb wurden die unterschiedlichen Visualisierungen als Pool von adaptierbaren Komponenten konzipiert, die je nach Anwendungsfall und Benutzertyp angepasst werden können.

In den folgenden Abschnitten werden die wesentlichen Konzepte, die die Semantik Visualisierung charakterisieren und eine auf verschiedenen Ebenen adaptierbare Lö- sung zur Visualisierung komplexer Semantik Daten anbieten, beschrieben.

Komponenten entwickelt, um in möglichst vielen Anwendungsszenarien eingesetzt werden zu können. Sie wurden daher so konzipiert, dass sie in existierende UI-Umge- bung verschiedener Applikationen und Szenarien mittels einer modularen Architektur Modular Graphical Framework integriert werden können.

Dabei ist die Architektur in Bereiche unterteilt, die für unterschiedliche Prozesse der Interaktion mit semantischen Daten angepasst sind: Stellt unterschiedliche Visualisierungstechni- ken für semantische Informationen bereit, die für die Vermittlung von Wissen an den Benutzer konzipiert wurden und ihn bei der Suche innerhalb der Daten unterstützt. Stellt Funktionalitäten zum Erstellen, Ändern bzw. Aktualisie- ren von semantisch strukturiertem Wissen bereit. Jeder dieser Bereiche realisiert verschiedene Arten der Interaktion bzw.

Dabei können die Bereiche an die spezifischen Anforderungen der Endnutzer verschiedener Anwendungsszenarien sowie an die Da- tenstruktur angepasst werden. Der modulare Aufbau bietet die Basis sowohl für adaptierbare graphische Elemente als auch für eine Integrations- und Kombinationsbasis mit möglichst geringem Aufwand. Dabei sind nicht nur die Visualisierungen als eigenständige Komponenten entwickelt, sondern alle Funktionalitäten, die etwa zur Datenintegration, der Informationssuche, der Analyse der Benutzerinteraktion uvm.

Auf diese Weise kann SemaVis für heterogene Daten, in unterschiedlichen Applikationen oder Webumgebungen und für verschiedene Benutzer eingesetzt werden. Diese komplexen Sachverhal- te können durch weitere Informationsdimensionen, wie etwa semantische Relationen, Zeitabhängigkeit der Daten oder einer taxonomischen Struktur in ihrer Komplexität die Kenntnisse und Aufnahmefähigkeit durchschnittlicher Benutzer übersteigen und den Benutzer überfordern.

Dabei wird jeweils die Komplexität der zu visualisierenden In- formationen reduziert und auf verschiedene Visualisierungen in einem User Interface UI dargestellt. Somit kann die Reduktion der Komplexität ohne Informationsverlust gewährleistet werden.

Durch eine neuartige Anbindung von Daten und Visualisierungen bietet das Se- maVis Framework die Möglichkeit, sowohl Visualisierungen miteinander zu koppeln als auch zu entkoppeln. Somit ist es mit dem Wissenscockpit möglich, Informationen auf folgenden Weisen zusammenzuführen und damit einen Mehrwert gegenüber existieren- den Visualisierungen zu schaffen: Visualisierung gleicher Daten mit gleichen Visualisie- rungen —— Komparative Sicht auf Visualisierungsebene: Visualisierung unterschiedlicher Da- ten mit gleichen Visualisierungen —— Aspektorientierte Sicht: Visualisierung gleicher Daten mit verschiedenen Visua- lisierungen —— Komparative Sicht auf Datenebene: Visualisierung verschiedener Daten mit ver- schiedenen Visualisierungen 4.

Die Visualisierungskomponenten werden in drei unterschiedlichen Klassen katego- risiert SeMap oder Sema- Space. Dabei verfügt jeder der Visualisierungen über eigenständige Parametrisierungsmöglich- keiten.

Dabei wird basierend auf den Benut- zerinteraktionen und der Struktur der Daten Semantics eine Auswahl von einer oder mehreren Visualisierungen getroffen, die im späteren Verlauf individuell parametrisiert werden s. Mit dieser Eigenschaft ist SemaVis in der Lage, basierend auf Empfehlungsdiensten30, Benutzermodellen oder Datencharakteristiken31 eine automatische Adaption vorzuneh- men und eine adäquate Benutzerschnittstelle für die Visualisierung der semantischen Daten zur Verfügung zu stellen.

Dabei können heterogene semantische Formate zur Laufzeit eingebunden und visualisiert werden. Diese umfas- sen sowohl die Beziehungen zwischen Objekten und Ereignissen über mehrere Bilder hinweg als auch die situativen Kontexte und den Anwendungskontext. Ein prominentes Beispiel für derartige Suchanfragen ist die Identifizierung von Personen in Videosequen- zen. Einfache Gesichtserkennungs-Ansätze erfordern ein Modell der betreffenden Person und neigen dazu, in schlecht konditionierten Umgebungen zu versagen.

Ein alternativer Ansatz besteht darin, Bedingungen der Beobachtung einzubeziehen, um die Rolle zu be- 30 Breyer Aufgrund der starken Zusammen- hänge zwischen Rollen, Personen und ihren Identitäten, ermöglicht das Wissen einer dieser Zusammenhänge oft, die anderen daraus abzuleiten.

Den Ausgangspunkt bilden dabei die Ergebnisse automatischer Bildanalyseverfah- ren, die einfach geartete Informationen und Merkmale aus den Videosequenzen extrahie- ren.

Eine robuste Gesichtserkennung lokalisiert Personen zuverlässig in den einzelnen Frames des Videos, auch wenn sie nicht direkt in die Kamera schauen. Über ein Tracking der Gesichts-Position über aufeinanderfolgende Frames erfolgt ein erstes Cluste- ring.

Daher folgt ein weiterer Clustering-Schritt. Da hierbei im Gegensatz zu einer klassischen Identifikation nicht auf die Erkennung einer Person abgezielt wird, sondern nur überprüft wird, ob die beobachtete Person in anderen Shots der Sendung zu sehen war, können Merkmale berücksichtigt werden, die nur in dem aktuellen Kontext TV-Show bestehen z.

Daher werden auf Basis der Gesichtslokalisationsdaten zugehörige Haar- und Brustregi- onen bestimmt, die beim Ähnlichkeitsvergleich mit berücksichtigt werden. Dieses robus- te Clustering-Verfahren berechnet für jede im Video gefundene Gesichts-Instanz einen Merkmalsvektor, um diesen mit denen früherer Gesichts-Instanzen zu vergleichen. Auf diese Weise wird für die Gesichts-Instanzen deren relative Auftretens-Häufigkeit innerhalb einer Sequenz bestimmt.

In Kombination mit einer groben textuelle Annotation, die manuell durch einen Archivar des Senders erstellt wurde, können dann die Rollen und dadurch auch die Identitäten in dem Video zugeordnet und gekennzeichnet werden. Beginnend mit ein- deutigen Zuordnungen und angemessener Kaskadierung können die meisten Personen erfolgreich identifiziert und gekennzeichnet werden.

Dabei spielen bei der Suche nach und der Identifikation von ausgewählten Ereig- nissen in Videosequenzen die Kontextinformationen eine essentielle Rolle. Im Endeffekt legen diese die Suchstrategie in den zur Verfügung stehenden Metadaten entscheidend fest und prägen damit die Ergebnisqualität. Dabei werden unsichere Aussagen aus ver- schiedenen Quellen zu einer Gesamtaussage kombiniert, sodass deren Treffsicherheit besser ist als die jeder einzelnen Aussage.

Sie ermöglichen es, mit Unsicherheit behaftete Aussagen zu neuen Aussagen zu kombinieren, wobei die ursprünglichen Unsicherheiten bei der Berechnung 32 Han Der Vorteil dieser Verfahren liegt darin, dass sich probabilistische Ereignisse mit einem Logik-Kalkül verbinden lassen und Entscheidun- gen über weitere Prozessschritte während der Laufzeit getroffen werden können.

Die Probalisitische Logik kombiniert die Stärken von Logik- mit Wahrscheinlichkeitskalkülen, sodass einerseits die Expressivität von binomialer Logik für strukturierte Aussagensys- teme zur Verfügung stehen, und andererseits auch Wahrscheinlichkeiten, um den Grad der Gültigkeit dieser Aussagen beschreiben zu können.

Die Sendung besteht aus verschiedenen Ele- menten wie Interviews, Wetten und musikalischen Auftritten. Das gesamte Filmmaterial umfasst ca. Die Gesicht- Lokalisierung hat darin ca. Der Zugriff auf diese Metadaten wird durch eine relationale Datenbank zur Verfügung gestellt.

Eine grobe textliche Annotation, welches manuell von einem Archivar des Senders geschrieben wurde, wird verwendet, um die Interview- Szenen zu identifizieren. Die Annotation enthält die Namen der teilnehmenden Gäste. Basierend auf diesen Midlevel-Metadaten war es mit dem vorgeschlagenen Algorithmus möglich, fast alle der erschienenen Gäste korrekt zu benennen. Die Interviews mit Prominenten nehmen in den Sendungen einen wesentlichen Anteil ein und bieten daher einen sehr guten Ansatzpunkt für die richtige Zuordnung von Gesichtsbildern.

Bei Interviews gilt im Allgemeinen, dass der Interviewte häufiger im Fernsehbild dargestellt wird, als der Interviewer. Die Identifikation eines Prominen- ten durch das Herausfinden des richtigen zugehörigen Portraitbildes wurde auf dieser Basis implementiert. Dazu werden nach Wahl eines Prominentennamens aus der textuellen Zusammen- fassung alle zugehörigen Videosequenzen ermittelt, in denen dieser evtl. Als zusätzliches Kontextwissen zur Identifizierung des Gastgebers wurde das Faktum, dass der Gastgeber als erstes die Fernsehbühne betritt, verwendet, so dass dadurch die Interviewer-Rolle für die gesamte Sendung besetzt werden konnte.

Sobald die Rollen den gefundenen Clustern zugeordnet werden konnten, war es möglich, jeder Person d. Da in dieser neben den Namen der Prominenten auch die Namen von weiteren passiven Personen erwähnt werden, hängt die richtige Zuweisung eines Namens oft von der Interpretation des Annotationstextes ab und ist deshalb eine mögliche Fehlerquelle.

Als erste Anfrage wurde eine Suche nach den pfiffigsten Wetten realisiert, bei der der Wettkönig zusammen mit der entsprechenden Wette als Ergebnis gefunden werden sollte.

Einstiegspunkt bildete die animierte Grafik zur Ermittlung des Wettkö- nigs, die aus dem Ergebnis der Logo-Erkennung erhalten werden konnte. Darauf basiert konnte dann unter Zugriff auf die textuelle Zusammenfassung die zugehörige Wette gefunden werden vgl. User Interface der rollenbasierten Identitätserkennung.

Gesichter werden mit einer Bounding Box markiert und der Name der Person wird eingeblendet. Das Navigationsfenster ist rechts dargestellt. Hier kann der Nutzer z. Gleichzeitig signalisierten einige aufgetretene Fehlklassifikationen, dass die vorhande- nen Metadaten nicht in allen Fällen ausreichen, bestehende Mehrdeutigkeiten aufzu- lösen.

An dieser Stelle könnte eine zuverlässige Transkription der Audiodaten wertvolle Hilfe leisten. Das Test-Szenario zeigt, dass das experimentelle System je besser funktioniert, desto mehr Gesichts- Cluster mit den richtigen Tags versehen sind. Korrekt erkannte Gesichter werden später richtig wiedererkannt.

Neue Gesichter können dagegen zu Fehlern füh- ren, weil sie bislang nicht im Identitäts-Speicher enthalten sind und keine Ableitungs- Regeln angewendet werden können. In einigen Fällen hilft der Ähnlichkeitsvergleich der visuellen Merkmale, die richtigen Etiketten vorherzusagen. Einige dieser Technologien wurden im Rahmen dieses Beitrags vorgestellt und examplarisch beschrieben.

Das Ontologiemanagement kann dabei als eine zentrale Basistechnologie für das Internet der Dienste angesehen werden. Die neuen Ansätze der Dialog-Shell umfassen eine einheitliche, semantische Repräsentation, eine starke Modularisierung, effiziente semantische Ver- arbeitung in der gesamten Kette, die Adaption an Situation und Personalisierung und eine eng gekoppelte Entwicklung von Mediation und Dienstekomposition.

Eine weitere Kerntechnologie stellt die semantische Visualisierung von Informati- onen dar. Für die Realisierung der Visualisierung wurde eine komponentenbasierte modulare Architektur entwickelt, die es ermöglicht, verschiedene Arten von Visualisierungen in Relation zu einander zu setzen und so unterschiedliche Benutzerschnittstellen für verschiedene Szenarien zu gestalten.

Das Zusammensetzen dieser Visualisierungen als Wissenscockpit kann unter Nutzung graphischer Attribute weiter parametrisiert werden. Weiterhin ermöglicht SemaVis eine automatische Anpassung der Visualisierung basierend auf den Eigenschaften des Be- nutzers oder den zugrunde liegenden Daten. Somit stellt SemaVis eine Basistechnologie zur Verfügung, die eine einfache, intuitive und graphische Interaktion mit heterogenen, semantischen Daten ermöglicht.

Hierbei geht es um eine rollenbasierte Identitäten-Erkennung von Personen in TV-Sendungen, die auf automatischen Bildanalyseverfahren basieren, die einfach geartete Informatio- nen und Merkmale aus den Videosequenzen extrahieren. Hierzu zählen unter anderem Verfahren zur zeitlichen Videosegmentierung, zur robusten Gesichtserkennung und zur Logo-Erkennung.

Literaturverzeichnis Alexandersson Alexandersson, J. The Basic Operation for Discourse Pro- cessing. Foundations of Multimodal Dialogue Systems. Becker Becker, T.: Computerlin- guistik und Sprachtechnologie. Spektrum Akademischer Verlag, Bicer Bicer, V. Bock a Bock, J. Article in Press, available online 15 August Bock b Bock, J.: Bock c Bock, J.

Ontology Alignment in the Cloud. Bock Bock, J. Breyer Breyer, M. In HCI International Burkhardt Burkhardt, D. Chesapeake, AACE, , p. Grimm Grimm, S. Elimination of Redundancy in Ontologies. Han Han, S. Toward contextual forensic retrieval for visual surveil- lance: Challenges and an architectural approach. Kleb Kleb, J. Müller Müller, H.

IAPR Newsletter 32 , p. A Concept for the Visualization of Seman- tics as Maps. Nazemi a Nazemi, K. Orchestration of Multiple Visualizations for Knowledge-Exploration.

International Journal of Advan- ced Corporate Learning 3 , p. Nazemi b Nazemi, K. Interaction Analysis for Adaptive User Interfaces.

Ad- vanced Intelligent Computing Theories and Applications: In HCI Internatio- nal Petersohn Petersohn, C.: Temporal video structuring for preservation and annotation of video con- tent, Proc.

Pfleger Pfleger, N.: Universität des Saarlandes, Saarbrücken, Porikli Porikli, F. Covariance tracking using model update based on lie al- gebra. Smeaton Smeaton, A. Sonntag Sonntag, D. Stab Stab, C. Advances in Visual Computing. Wahlster Wahlster, W.: Dialogue Systems Go Multimodal: Der ein- fache wirtschaftliche Austausch zwischen einer Leistung Geld und einer Gegenleistung Produkt wird immer mehr an Bedeutung verlieren.

Kunden kaufen schon heute immer seltener ein singuläres Produkt und geben dafür eine Summe X aus. Vielmehr erwerben Sie Lösungen, Dienstleistungen, Beratung — kurz: Wirtschaftliche Transaktionen wandeln sich zu wechselseitigen sozialen Transakti- onen: Durch das Internet befinden sich Menschen heute schon inmitten einer interak- tiven Wertschöpfungskette entlang komplexer Dienstleistungssysteme.

Und das über Branchengrenzen hinweg. In allen entwickelten Ländern vollzieht sich dieser Strukturwandel von der physi- schen zur immateriellen Wertschöpfung.

Der Anteil der Produktion an der volkswirt- schaftlichen Wertschöpfung sinkt. An Bedeutung gewinnen der tertiäre Sektor der Dienstleistungen und der quartäre Sektor der Wissensarbeit. Befördert wird dieser Trend durch moderne Informations- und Kommunikations- technologien: Sie ermöglichen beispielsweise eine schnelle Interaktion mit Kunden und verändern die Art und Weise, wie Mehrwert geschaffen und konsumiert werden kann.

Sie vernetzen und digitalisieren einzelne Teilsysteme und Partner weltweit, statten An- gebote mit Informationen aus und sind somit Treiber für eine serviceorientierte und kollaborative Form der Wertschöpfung. Mit der Transformation zu einer serviceorientierten Wirtschaft wird der sichere Umgang mit den modernen Werkzeugen der Informations- und Kommunikationstechnologien zu einer Schlüsselqualifikation. Die Kompetenzanforderungen werden weiter steigen.

Nur so sind die Herausforderungen unserer Zeit zu meistern. Wenn von Herausforderungen die Rede ist, sind vor allem die heute noch häu- fig sehr ineffizienten Abläufe und Systeme gemeint, mit denen die Menschen arbeiten und ihr tägliches Leben gestalten: Diese Herausforderungen sind vielfach verknüpft und dadurch zu komplex, als dass sie mit einem singulären Produkt bedient oder gar gemeistert werden könnten.

Wenn wir über intelligente Verkehrswege, über ein intelligentes Gesund- heitssystem oder über die intelligente Vernetzung einer Stadt sprechen, haben wir es automatisch mit dem Zusammenspiel von technischen und sozialen Systemen zu tun — und diese Kombination durchdringt mehr und mehr unsere Arbeits- und Lebenswelten.

Mehr noch, diese Servicesysteme werden zur wesentlichen Voraussetzung für In- novation, Wachstum und Beschäftigung. Das bedeutet aber auch, dass in dieser Ser- vice-Revolution diejenigen Unternehmen und Gesellschaften besser bestehen werden, denen es am schnellsten gelingt, die benötigten wissenschaftlichen Erkenntnisse zu erlangen, ihre Mitglieder damit auszustatten und den Transfer in die Praxis in der Breite voranzutreiben.

Es geht um die Gestaltung und das Management dieser digitalen und vernetzten Systeme. Und dafür ist eine interdisziplinäre und damit praxisgerechte Denkweise über technische, wirtschaftliche und soziale Fachdomänen hinweg notwendig. Eine wichtige Basis bildet eine neu-formierte Service Science. Die IBM hat sich hier sehr frühzeitig engagiert - unter anderem und ganz konkret hier in Deutschland1. Service Science integriert Erkenntnisse aus verschiedenen Wissensgebieten wie etwa Ingenieur- wissenschaften, Informatik, Wirtschaftswissenschaften oder Soziologie.

Sie produziert und vermittelt geeignete Theorien, Konzepte, Methoden und Werk- zeuge für die Schaffung neuartiger Dienstleistungen und ihre Verbreitung mittels Infor- mations- und Kommunikationstechnologien. Und mit ihrer Hilfe können Menschen in Wirtschaft, Verwaltung und Wissenschaft optimal auf Wachstumschancen durch Dienst- leistungen und dienstleistungsorientierte Wertschöpfung vorbereitet werden. Denn sie verbessert das Verständnis für neue Dienstleistungen, lässt neu entstehenden Bedarf rascher erkennen und erleichtert die kreative Entwicklung und erfolgreiche Vermarktung entsprechender Angebote.

Die dramatische Veränderung im Wertschöpfungsmix müssen wir aber vor allem in den Unternehmen gestalten und umsetzen. Politik, Verbänden und Forschungseinrich- tungen obliegt dabei die Aufgabe, Impulse zu geben, damit dieser Wandel sich zügig und wettbewerbsorientiert vollzieht.

Ein solcher Wandel ist keine Selbstverständlichkeit. Man wandelt sich nicht einfach mal so. Es ist harte Arbeit, sie erfordert Mut und festen Willen. Dieser schrumpfte allerdings rapide. Denn der Markt hatte sich so sehr weiterentwickelt und sich dabei weit vom Kerngeschäft der IBM entfernt, dass das Unternehmen dringend handeln musste. Erstens das Unternehmen zusammen zu halten - obgleich ihm viele Analysten die Zerschlagung und Versilberung der Einzelteile nahelegten.

Energieversorger werden nicht einfach mit Computern ausgestat- tet, sondern werden bei Entwicklung, Aufbau und Betrieb von Smart Grids umfassend unterstützt, in Deutschland beispielsweise im Projekt E-Energy2. In diesen intelligenten Stromnetzen kommen Sensoren, Messgeräte, digitale Steuerungselemente und Analyse- instrumente zum Einsatz, die den Elektrizitätsverbrauch in Echtzeit überwachen, Strom- verluste im Netz orten, variable Gebührensätze ermöglichen und besonders sparsame Kunden in dynamischen Tarifmodellen belohnen.

Das Angebotsportfolio der IBM hat sich mithin dramatisch verändert. Die fast sprichwörtliche Hardware-Orientierung ist Vergangenheit. Diese Verschiebung wird stetig weiter vorangetrieben. Zukäu- fe finden fast nur in margenstärkeren und innovativen Software- und Services-Feldern statt. Dieses Geschäftsfeld umfasst Verfahren zur Analyse und Lösung hochkomplexer Herausforderungen, zur Prognostik und zur darauf aufbauenden Optimierung von Geschäftsprozessen und -modellen.

Das gesamte Daten- und Informationsmanagement in Unternehmen wird entsprechend aus- gerichtet. Was ist damit gemeint?

Und was hat das mit Services zu tun? Gemeint ist die welt- weite Vereinheitlichung und Zusammenführung der Wertschöpfungskette. So hat zum Beispiel nicht mehr jede Landesgesellschaft einen eigenständigen Einkauf.

Das steuert weltweit ein Team mit Sitz in Schanghai. Dabei ist völlig unerheblich, wo diese daheim sind. Vor allem geht es hier um den nach global einheitlichen Prinzipien organisierten und koordinierten Zugriff auf den Rohstoff Wissen.

Sie schlägt sich gut im weltweiten Wettbewerb. Dafür muss sie allerdings stets auf den Zehenspitzen bleiben, ihre Qualifikation und Fähigkeiten immer weiter ausbauen. Dann schafften sie es auch, 2 Vgl. So leistet das deutsche Finanz-Team zum Beispiel das europäische Rechnungswesen weitestgehend aus Ehningen. Sein Team gewinnt dank herausragender Kompetenzen in bestimmten Feldern immer wieder Entwicklungsaufträge, um die es im internen Wettbewerb der immerhin 40 Labore der IBM weltweit steht.

Innovative Services gehören zu den Stärken dieser Mannschaft. Aber was macht eigentlich innovative Services aus? Ausgangspunkt ihrer Entwick- lung sind meistens die Digitalisierung und Vernetzung ehemals analoger und kaum ver- bundener Abläufe.

Wenn zum Beispiel Güter nicht mehr auf physischem Weg transpor- tiert, sondern in digitaler Entsprechung elektronisch distribuiert werden, dann verändert das sowohl die zugrunde liegenden Wertschöpfungsketten der Hersteller und Verbreiter, als auch die Entgegennahme und Nutzung durch den Konsumenten.

Ein aktuelles Beispiel sind Informationsdienstleister, zum Beispiel Verlage. Ihre Gü- ter sind Unterhaltungs-, Nachrichten- oder Bildungsinhalte, die bisher auf Papier ge- druckt auf physischem Verbreitungsweg zum Leser gelangen. Den Gütern wohnt bereits die Dienstleistung der Inhaltsrecherche, -aufbereitung und -wiedergabe inne. Tritt an die Stelle der physischen Verbreitung nunmehr die digitale, dann eröffnet das für die Verbreitung und Nutzung von Inhalten vielfache neue Möglichkeiten.

Ob sich damit ebenso Geld verdienen lässt, was das für die Wahrung von Schutzrechten bedeutet, wie Vernetzung von Informationen nahezu schrankenlose Transparenz schafft und welche Dienste daraus wiederum entstehen können, beschäftigt nicht wenige Verlage und ruft — ganz ähnlich wie vor wenigen Jahren in der Musikindustrie — ganz neue Mitspieler auf das Feld.

Eine innovative Dienstleistung macht also ihr Fokus und ihre Auswirkung aus: Ist sie eine Geschäftsprozess-Innovation? Läuft etwas schlanker, effizienter, qualitativ hochwer- tiger, nützlicher?

Oder ist sie sogar eine Geschäftsmodell-Innovation? Stellt sie die Leis- tung eines Unternehmens auf ein neues wirtschaftliches oder qualitatives Fundament? Diese Fragen muss sich jeder Dienstleister stellen. Und eine saubere Antwort für die Frage nach dem Return-on-Investment parat haben. Denn die stellt der Servicenehmer. Gerade in wirtschaftlich angespannten Zeiten ist er besonders kritisch in diesem Punkt.

Kurz gefasst ist es eine Agenda und Strategie des Unternehmens und beschreibt den Beitrag des Unternehmens, Leben und Arbeit auf dem Planeten besser zu gestalten.

Hinter dieser Agenda stehen drei zentrale Beobachtungen: Die Welt wird immer weiter von digitaler Technologie durchdrungen. Menschen können heute keine drei Meter weit gehen, ohne Chips und Speichern, Kameras und Sensoren, Computern und Recheneinheiten zu begegnen. All diese digitalen Einheiten werden zunehmend miteinander verbun- den. Es entsteht das Internet der Dinge, der virtuelle Interaktionsraum aller digitalen und vernetzten Gegenstände. Es ist die logische Fortsetzung und Er- weiterung des Internets der Informationen, an dessen Nutzung wir Menschen uns inzwischen so gewöhnt haben.

Aus diesen Verbindungen und Interaktionen entstehen Daten. Wir können sie analysieren, Muster erkennen, Informationen aus ihnen ableiten. Aus Informationen entsteht Wissen und daraus entstehen bessere Entscheidun- gen. Hier schlagen wir die Brücke zum Internet der Dienste. Das ist alles andere als trivial.

Wir beobachten eine Explosion der Datenmengen. An einem kurzen Beispiel lässt sich das erläutern: In Deutschland gibt es verschiedene Modellversuche mit sogenannten Smart Meters. Digitale Stromzähler, die dem Ener- gieversorger und dem Verbraucher laufend aktuelle Daten über die Energienutzung liefern und damit zum Beispiel dynamische Tarifierung ermöglichen.

Damit können Ver- braucher zu besonders günstigen Zeiten waschen und teure Lastspitzen vermeiden. Das dabei anfallende Datenvolumen steigt sprunghaft an: Her- kömmliche Zähler werden einmal pro Jahr abgelesen. Statt 10 Millionen Datentransaktionen pro Jahr bei analogen Zählern ergibt das über Milliarden Transaktionen in der digitalen Welt. Bei einer solchen Umstellung entstehen neue Dienstleistungen. Dynamische Tarif- modelle müssen entwickelt und vermarktet werden, Installationen geplant und durch- geführt, Handwerker und Techniker geschult und Verbraucher aufgeklärt werden.

Spe- zialisierte Dienstleister können die Datenverarbeitung und -auswertung optimieren, die Berechnung von Nutzungsempfehlungen entwickeln oder Prämienmodelle für beson- ders umweltbewusstes Verhalten ausarbeiten, einführen und bedienen. Und das alles nur, weil — salopp formuliert — ein paar digitale Bauteile an jede Versorgungsleitung angeklemmt werden können.

Im Bereich der Energieversorgung spielt das Wetter eine wesentliche Rolle - zum Beispiel für den Energiezufluss aus regenerativen Quellen in das Netz, aber auch für die Prognose von Lastspitzen. Dabei kommt es vor allem auf die Fähigkeit an, Zusammenhänge und Muster in den Daten zu erkennen - zweifellos ein Feld, das das Prädikat wissensintensiv tatsächlich verdient. Je komplexer und intensiver die Integration dieser verschiedenen Daten, desto höher die Wertschöpfung.

Komplexität ist allerdings auch der Feind einfacher Antworten. Solche und ähnli- che Szenarien und Lösungen werfen bei Führungskräften aus Unternehmen und Verwal- tungen, bei Politikern und Wissenschaftlern konkrete Fragen zur Umsetzung auf. Hier geht es um die Entwicklung vom Autohersteller zum Mobilitätsdienstleister.

Ausgangspunkt ist das Produkt. Genauer die Erneuerung des Antriebsstrangs. Denn der klassische Verbrennungsmotor ist ein Konzept mit endlicher Zukunft. Mehr und mehr setzt sich allerdings die Erkenntnis durch, dass das Auto vom wirtschaftlichen zum ökologischen Statussymbol mutiert. Wenn 10jährige als Berufswunsch Klimaretter statt Rennfahrer angeben, ist es Zeit für neue Geschäftsmodelle. Folglich sind zum Beispiel Car-Sharing-Konzepte inzwi- schen gar nicht mehr so randständige Erscheinungen.

Und auch die IBM leistet ihren Beitrag dazu. Verfügbare Autos im di- rekten Umkreis findet man in einem Stadtplan auf dem Handy, geht dort hin, öffnet das Auto mit einem Chip, der auf dem Führerschein klebt, steigt ein und fährt wohin und wie lange man will.

Am Ziel angekommen lässt man das Auto einfach stehen. Das klappt ohne vorherige Reservierung. Abgerechnet wird nach Nutzungsdauer. Ergänzungen und Erweiterungen sind leicht denkbar, wenn man die Datenerfas- sung und Auswertungs-Intensität weiter erhöht. Die eigentliche Herausforderung im städtischen Verkehr liegt in der intelligenten Steuerung - und zwar ganz besonders bei multimodalem Verkehr, also Mobilität, die verschiedene Verkehrsmittel und -systeme umfasst.

Netzwerke müssen erweitert werden, neuartige Partner aufgenommen werden. Und plötzlich gibt es keine Prozent-Kontrolle der gesamten Wertschöpfungskette mehr. Niemandem gehört das System so ganz. Wenn fünf verschiedene Transportmittel für den Weg von A nach B verfügbar sind, besteht die Kernleistung des Gesamtsystems auf der mobil verfügbaren, optimalen und ganzheitlichen Empfehlung, Buchung und Abwicklung.

Die Basis dafür sind historische, aktuelle und prognostische Daten aus allen Subsystemen. Was ist nötig, damit solche komplexen Systeme funktionieren? Vier Punkte, deren Beherzigung entscheidend für die Entwicklung innovativer Services ist: Das Verständnis der Leistung wandelt sich von Produkt zu Service - die hybride Leistung bündelt beide und baut damit eine Brücke für alle, die heute noch in der Produktwelt verhaftet sind und sich fragen, wie sie an der Dienstleis- tungswirtschaft partizipieren können.

Technologie ist der Treiber für Innovation. Digitalisierung, Vernetzung und intelligente Datennutzung sind die Eckpfeiler moderner Servicekonzepte.

Das Internet der Dinge ist nur so gut, wie wir die Beziehungen zwischen den Dingen verstehen und zu nutzen wissen. Hochwertige Services zeichnen sich durch drei Faktoren aus: Der Kulturwandel muss vor allem auf der Anbieterseite erfolgen. Die Bereitschaft zur radikalen Veränderung von Geschäftsprozessen oder sogar Ge- schäftsmodellen kann nur von hier ausgehen. Wenn der Markt sie erzwingt, ist es meist zu spät.

Ein intelligentes Gesundheitssystem an der Schnittstelle von Informationstechnologie, Gesundheitsökonomie und Medizin. Oder etwa Smarter Work, also effektiveres Zusammenarbeiten in Organisationen, an der Schnittstelle zwischen Psychologie, Informationstechnologie und Soziologie. Service Science leistet einen wichtigen Beitrag, die Service-Revolution in die richtige Richtung zu steuern und Dienstleistungsinnovationen für die gesellschaftlich relevan- ten Servicesysteme hervorzubringen.

Die SAP gestaltet diesen Wandel mit, und wir verändern uns selbst. Eins ist dabei klar: Innovationen sind die Grundlage für unseren Erfolg. Deshalb ist und bleibt Forschung ein ganz zentraler Teil unserer Ar- beit. Wir werden unsere Aktivitäten in Zukunft sogar noch verstärken. Heu- te ist das Internet ein mächtiges Medium zum Austausch von Informationen. Aber wir glauben, dass das erst der Anfang ist. Das Internet steht vor einer weiteren Revolution: Es wird zur zentralen Infrastruktur nicht nur für Bürger, sondern auch für Unternehmen und den öffentlichen Sektor.

Es wird zur Plattform für Dienstleistungen von Unterneh- men genauso wie für Dienste staatlicher Stellen. Diese Dienste werden besser sein: Im Bereich der Konsumen- ten waren andere schneller. Aber in der Infrastruktur für Unternehmen und öffentliche Verwaltung können wir eine Vorreiterrolle übernehmen. Wir können unsere Wettbewerbs- fähigkeit erhöhen und durch Innovationen neues Wachstum und Beschäftigung schaffen. Unser Dank gilt den Partnern für die Zusammenarbeit in den vergangenen Jahren.

Das Internet hat eine kurze, aber unglaublich spannende Entwicklung hinter sich. Wie bereits erwähnt, gehen wir davon aus, dass sich das Internet zu der entscheidenden Business-to-Business-Infrastruktur entwickelt. Wenn wir die Geschichte des Internets unter diesem Gesichtspunkt betrachten, so fällt auf, dass wir eine Art Pendelbewegung beobachten können, die zwischen einem Fokus auf den Endnutzer, also dem Business-to-Customer-Bereich, und dem b2b-Bereich verläuft.

Dieses frühe Internet ist vor allem ein Internet des einfachen Zugangs zu Inhalten. Dann schwingt das Pendel zum ersten Mal in Richtung b2b-Nutzung. Wir sehen die Entwicklung des E-Commerce, der aber zunächst nur für die Digitalisierung des einfa- chen Warenkaufs steht.

Das Aufkommen sozialer Netzwerke lässt sich als nächster Pen- delschwung verstehen, diesmal zurück zum privaten Nutzer: Facebook und Twitter sind zentrale Stichworte. Wir denken, dass wir unmittelbar vor einer weiteren Pendelbewegung stehen, die in der Logik der vorherigen stehen wird und den Gedanken der sozialen Netzwerke in die b2b- und b2c-Nutzung des Internets überträgt.

Dadurch werden soziale Netzwerke zu mehrdimensionalen Strukturen, die über private Freundschaftsbeziehungen hinaus- gehen. Die Kräfte, die dieses Pendel antreiben, sind wohlbekannt und drücken sich in folgenden Technologien und Entwicklungen aus: Wir werden sehen, wie sich die Logik der existieren- den sozialen Netzwerke mit jenen eines Unternehmens verschmelzen. Die eindimensi- onale Konstruktion des sozialen Netzwerks um private Freundschaftsbeziehungen wird erweitert durch die Abbildung folgender Aspekte: Trend Nummer zwei ist die Verkürzung von Entwicklungszyklen für Geschäftsan- wendungen.

Es ist heute bereits machbar, von zu Hause aus Apps1 zu programmieren, diese über einen App Store2 zu vertreiben und damit auf hochkomplexen IT-Services auf- bauend Geld zu verdienen. Es ist schon erstaun- lich, dass die Anzahl der verfügbaren Apps für Handys zu einer Art Garantie für die Zukunftsfähigkeit dieser Geräte geworden ist. Für iPhones stehen beispielsweise über Man kann davon ausgehen, dass sich der Entwicklungszyklus für Geschäftsanwendungen von zwei Jahren auf zwei Monate verringern wird.

Trend Nummer drei ist die Verschmelzung des Internets mit der realen Welt und zwar sowohl mit Gegenständen als auch mit Dienstleistungen. Auf das Internet der Dinge und das Internet der Dienste soll an dieser Stelle nicht vertieft eingegangen werden.

Wenn wir die skizzierten Trends zusammennehmen, ergeben sich aus unserer Sicht immense Chancen für neue Geschäftsmodelle. Die genannten Trends und Technologien sind aber noch ein Puzzle, das der Zusammensetzung harrt. Technische und wirtschaftliche Herausforderungen Es lassen sich drei zentrale Herausforderungen erkennen, die zum Lösen des Puzzlers zu meistern sind.

Eine Schätzung geht von einer Verdoppelung des Datenvolumens alle 18 Monate aus. Wie orchestrieren wir die neuartigen Prozesse? Wie managen wir diese Datenmassen? Und wie machen wir daraus wertvolle Informationen? Hier entsteht eine Fülle von Fragen, die von neuartigen Orchestrierungstechnologien über Sicherheitsfragen bis hin zur Per- formance reichen.

Zweitens benötigen wir eine Cloud-Infrastruktur. Es ist eine strategische Entscheidung, ob die europäischen Akteure hier selbst aktiv werden wollen. Hier sind sicher auch Forschungsprojekte gefragt, die den Akzent auf dieses Thema legen.

Drittens brauchen wir eine Plattform, die mobile Endgeräte in die Cloud-Infrastruk- tur integriert und die Entwicklung neuer Anwendungen ermöglicht. Wir brauchen hier einen neuen Ansatz, der den neuen Business-Netzwerken gerecht wird und eine End-to-End-Orchestrierung ermöglicht: Viertens muss in diese Plattform ein Innovations-Ökosystem integriert werden, das die oben beschriebenen neuen Anwendungen und Dienstleistungen entwickeln wird. Es handelt sich bei ihnen um eine vertikale Integration mit strategischen Punkten, die es zu besetzen gilt.

Nun gehen diese Punkte aber in ihrer Gesamtheit über die traditionellen Handlungsfelder einzelner Unter- nehmen hinaus. Dies sollte aus deutscher und europäischer Perspektive geschehen — und zügig, also nicht in drei Jahren, sondern möglichst heute. Diese Gruppe könnte der Nukleus für das Partnernetzwerk werden, und die Acatech kann hier aus unserer Sicht ein starker Partner sein. Seitens der SAP sind wir bereit, zu dieser gemeinsamen Infrastruktur beizutragen.

Drei Dinge möchte ich kurz erwähnen: In der Forschung haben wir zudem ein neues Team aufgebaut, um schnell ge- meinsam mit Partnern Prototypen zu entwickeln. Politische Herausforderungen Neben einem starken Partnernetzwerk von Unternehmen und Forschungseinrichtungen nimmt auch die Politik eine wichtige Rolle ein. Konkret geht es um folgende Punkte: Sowohl für die Bereitstellung von Services im Internet als auch im Bereich der mobilen Endgeräte sind Standards unabdingbar.

Dieses Beispiel zeigt, dass hier eine enge Partnerschaft zwischen öffentlicher Hand und Unternehmen sinnvoll ist. Die Beschreibungssprache USDL wird aber nur dann seine positive Wirkung entfal- ten, wenn sie sich schnell durchsetzt.

Der Staat kann hier eine wichtige Rolle als Early Adopter einnehmen. Dies lässt sich durch gezielte Pilotprojekte vorbereiten. Zudem sollte die Regulierung im Telekommunikationsmarkt auf Hindernisse über- prüft werden. Das Thema Roaming von Datendiensten soll hier beispielhaft erwähnt werden. Diese Roaming-Gebühren sind virtuelle nationale Grenzen in einer globalisier- ten Welt, die die Entwicklung einer europäischen, auf mobile Endgeräte optimierten Cloud-Infrastruktur verhindern können.

Um das Problem zu verdeutlichen: Jeder, der einmal eine Roaming- Rechnung bekommen hat, wird es sich gut überlegen, Datendienste im Ausland in An- spruch zu nehmen. Dies zeigt, dass Roaming kein Preismodell ist, das für die nächste Generation des Internets geeignet ist. Hier brauchen wir andere Lösungen, um die Infra- strukturen der Zukunft zu refinanzieren.

Das umschriebene Szenario impliziert eine ungeheure Datenmenge, zu der auch persönliche Daten, Nutzungsprofile oder Geodaten gehören. Die reelle und die virtuelle Welt wachsen zusammen zu einem riesigen digitalen Datenmeer. Es wäre fatal, wenn wir uns als Wirtschaft nicht mit der Frage beschäftigen würden, wie wir Transparenz, Integrität und Sicherheit dieser Daten garantieren können.

Es ist leicht einzusehen, dass wir hier eine völlig neue Lösung brauchen. So werden im bisherigen Modell die Daten von den Dienstanbietern selbst gespeichert. Eine unabhängige Clearing-Stelle, die einen entsprechenden Austausch von Daten und deren Nutzung regelt, scheint ein guter Vorschlag zu sein.

Die genaue Ausgestal- tung einer solchen Clearing-Stelle wäre noch zu diskutieren. Das Ziel ist aber klar: Der Datenaustausch muss genauso sicher und unproblematisch sein wie es heute schon beim Kreditkartensystem funktioniert. An dieser Stelle soll es bei diesem groben Umriss und Beispielen bleiben. Wir mei- nen es ernst mit dieser Vision und suchen gern das Gespräch über Partnerschaften, so- wohl mit der öffentlichen Hand als auch mit möglichen industriellen und akademischen Partnern.

Die Acatech könnte hier eine Plattform sein. Auch in den politische Gremien sehen wir wichtige Partner. Wir sind zuversichtlich, dass wir so gemeinsam diese für unseren Wirtschaftsraum so essentiellen Themen werden gestalten können! Zwischen und dem Jahr hat die durchschnittliche Lebenserwartung weltweit um 20 auf 66 Jahre zugenommen.

Bis werden noch einmal 10 Jahre hinzu kommen. Gleichzeitig gehen die Geburten- raten in vielen Teilen der Welt zurück. Das gilt gerade auch für Deutschland. Das sind quantitative Aspekte des demographischen Wandels. Eng damit verknüpft ist ein qua- litativer Aspekt: Wenn die arbeitende Bevölkerung im Durchschnitt immer älter wird, dann ist die Medizin gefordert, diese volkswirtschaftliche Basis in die Lage zu versetzen, in Zukunft wie auch heute, zuverlässige Träger dieser Ökonomie zu bleiben.

Die Medizin rückt in einen anderen Kontext und erhält eine volkswirtschaftli- che Bedeutung, der gerne übersehen wird. Der Wechsel der Perspektive hat weitreichende Folgen, denn die Kernfrage lautet jetzt nicht mehr, was kostet ein Gesundheitssystem, sondern was bringt ein Gesund- heitssystem?

Allerdings dürfen wir die Industrialisierung der Medizin nicht so verstehen, dass das Schicksal der Patienten der Apparatemedizin überlassen wird, sondern vielmehr im Sinne einer Produktivitäts- und Effizienzsteigerung bei qualitativ hochwertiger medizinischer Versorgung.

Die Prozessinnovationen — abgeleitet aus der Industrielogik — spielen dabei eine zen- trale Rolle, denn es wird die Prozessseite sein, die entscheidet, was mit welchem Nutzen mit welcher technischen Ausgestaltung vorgenommen wird.

Wir werden in Zukunft Geräte haben, die der indus- triellen Anforderung genügt: In letzter Konsequenz ist das jedoch nicht entscheidend. Viel wichtiger ist es, immer bessere Produkte in einer Systemlandschaft so zu integrieren, dass aus dem Mehr oder auch Meer an Informationen, das diese Produkte erzeugen, auch ein medizinischer Mehrwert für die Patienten erzielt wird. Denn die moderne Medizintechnik ist in der Lage, sowohl eine enorme Menge als auch eine enorme Vielfalt an Bild- und Labordaten zu generieren.

Es entsteht eine Effizienzproblematik. Und die Antwort darauf ist nicht, dass der diagnostizierende Arzt schneller und länger arbeitet. Vielmehr muss die Daten- basis adressatengerecht zur Verfügung gestellt werden. Das kann dadurch geschehen, dass die Systeme in einer IT-Infrastruktur eingebettet werden, die die Arbeitsabläufe optimiert und darüber hinaus die generierten Daten systematisiert und anonymisiert. Aus diesen anonymen Datensätzen können zusätzliche Informationen sowohl für die Diagnose als auch für die Therapie gewonnen werden.

Die Intelligenz des Arztes kann damit nicht ersetzt werden. Aber das tiefe Erfahrungswissen des behandelnden Mediziners kann unterstützt und ergänzt werden durch Data Mining Algorithmen, die auch in den entferntesten Orten der Welt das weltweit vorhandene medizinische Wissen oder Informationen zur Wirksamkeit von Me- dikamenten verfügbar machen.

Der Arzt kann eine Vielzahl von Daten, die aus früheren und vergleichbaren Fällen aus ganz anderen Weltgegenden gewonnen wurden, als Ver- gleichsbasis bei seiner Diagnose heranziehen. Er kann die Krankheitssymptome seines Patienten mit einem konkreten Profil oder mit einem synthetisierten Profil, abstrahiert aus all den verfügbaren Daten, aus der Datenbank vergleichen.

Der Anwender wird dann nicht das Medikament wählen, das er am besten kennt, sondern das Medikament, dass nach eigener Abwägung im Abgleich mit einer Vielzahl von ver- gleichbaren Fällen dem Patienten am besten hilft. Für die Industrie und Anwender eröffnen sich damit ganz neue Geschäftsmodelle und Anwendungen: Medizinische Wissensdatenbanken bestehend aus Bild-, Labor und Medikamentendaten können als Cloud Anwendung oder Apps angeboten werden.

Bezahlung geschieht per Zugriff. Der Patient kann seinen behandelnden Arzt beauftragen, das Wissen weltweit und virtuell zu beschaffen, um dadurch eine verbesserte Entscheidungsbasis für die Diagnose zu haben. Die Basistechnologien einer solchen Gesundheitslandschaft sind vorhanden. Wir messen täglich Stoffwechselparameter, es entstehen Bilder von gesunden und patho- logischen Strukturen, es gibt Früherkennungsansätze und Korrelationen mit Genclus- tern.

Bestimmte Brustkrebsarten können bereits heute mit genetischen und metaboli- schen Parametern korreliert werden. Heute gibt es auch bereits Wissensdatenbanken, Verschlüsselungstechnologien und Serverbänke, die solchen Datenmengen gewachsen sind.

Es geht auch weiterhin um ein immer besseres Verständnis der Pathologie und der Biologie des Menschen. Entscheidender Mehrwert entsteht aber durch das Einbeziehen von Meta- Wissen, abgeleitet von Patientendaten. Im Theseus-Anwendungsfall Medico wird gerade dazu an Verfahren geforscht, um dieses Meta-Wissen automatisch aus Bildern, Berichten und Labordaten zu extrahieren, dieses integriert abzuspeichern und semantisch verarbeitbar zu machen. Schon heute können damit eine Vielzahl der im Krankenhaus anfallenden Daten geordnet und in einer holistischen Sicht dem Arzt und auch zukünftig dem Patienten präsentiert wer- den.

Der erwähnte Vergleich von Patienten anhand von Krankheitssymptomen kann in nur wenigen Schritten durch den Arzt realisiert werden, indem er mittels eines durch das Medico-System generierten Patientenprofils und seinen semantischen Suchmöglich- keiten ähnliche Krankheitsfälle in den medizinischen Datenbanken effizient auffinden kann.

Ebenso kann damit gezielte Recherche nach relevanter Information zum Krank- heitsfall durch Nutzung semantischer Dienste im Internet, z. Die eingangs erwähnte Effizienzproblematik wird damit bald der Vergangenheit angehören.

Automatischer Extraktion von Meta-Wissen aus heterogenen Datenquellen, semantischer, d. Letztendlich ist es eine gemeinschaftliche Aufgabe von Leistungserbringern, Kost- enträgern und Industrie, solche Systeme, wie Medico, wettbewerbsorientiert aufzubau- en, bezahlbar zu machen und vor Missbrauch zu schützen.

Da wird allen Beteiligten noch viel abverlangt, und es bedarf hoher Forschungs- und Entwicklungsaufwendungen, hier voranzukommen. Fangen wir also an, bevor es zu spät ist. Internet und Web Das Internet ist mittlerweile ca. Mittlerweile ist es als eine der zentralen Kommunikationstechnologien nicht mehr aus dem täglichen Leben wegzudenken. Viele Geschäfts- und Lebensbereiche hängen fundamental von ihm ab. Das World Wide Web ist ca.

Es beruht im Wesentlichen auf drei Elementen: Darauf aufbauend hat es sich mittlerweile als Kommunikationsplattform für ca. Prinzipien, die diesen Erfolg möglich machten, sind: Jeder kann als Anbieter oder Nutzer von Ressourcen agieren. Ressourcen werden unabhängig voneinander entwickelt und sind daher heterogen bis zu widersprüchlich. Es gibt keine zentrale Kontrolle. Ressourcen können jederzeit und un- kontrolliert auftauchen, sich verändern oder wieder verschwinden.