L&M-3-2008
>
Von Virtual Reality zu Ambient Intelligence
Von Virtual Reality zu Ambient IntelligenceJürgen Brickmann von labor&more im Gespräch mit Prof. Dr.-Ing. José L. EncarnaçãoSie sind weltweit wohl eine der bekanntesten Personen im Bereich der Entwicklung und des Einsatzes von Computergrafik in allen möglichen Bereichen. Wo stehen wir heute und wohin wird die Entwicklung führen? Ich sehe die Zukunft der grafischen Datenverarbeitung geprägt von einigen Entwicklungen, die entweder die grafische Datenverarbeitung als Basistechnologiebrauchen und vorantreiben werden oder neue Szenarien eröffnen, wo die grafische Datenverarbeitung in Zukunft eine Rolle spielen wird. Die Gebiete lassen sich wie folgt kurz auflisten: Zunächst sind es die Spiele, ein anderes ist die Mobilität, das dritte ist die Frage der Semantik von Bildern, das vierte ist die digitale Fotografie und fünftens ist es der Paradigmenwechsel, der zurzeit in der Informatik und Informationstechnik stattfindet, ein Gebiet, das man in neudeutsch Ambient Intelligence nennt – intelligente Umgebungen, die selbst neue, intelligente Anwendungen und Produkte ermöglichen. Wie sehen Sie die Prioritäten? Fangen wir mal mit den Spielen an. Wenn jetzt eine Generation von Menschen in den Arbeitsprozess hineinkommt, die mit dem Computerspielen groß geworden sind, dann wird erwartet, dass der Arbeitgebereine Umgebung zur Verfügung stellt, die mindestens so gut ist wie diese Spiele. Es werden Tools erwartet, die man in neudeutsch Serious Games nennt. Ob das jetzt die Medizin für die Operationsplanung ist, ob im Bereich Außendienstunterstützungssysteme, ob im Bereich Banking, ob im Bereich Lernen: Man wird einfach von der spielerischen Seite die Werkzeuge entwickeln, weil die Population der Anwender das erwartet. Man sagt ja häufig, dass man die Dinge besonders gut lernt, die man spielerisch und mit dieser Lust am Tun betreibt. Wie weit ist man damit, die menschliche Komponente in die Entwicklung zukünftiger Projekte einzubringen? Im Grunde genommen hat die Spiel industrie in dieser Richtung heute schon die Filmindustrie überholt. Das setzt sich fort. Junge Leute, die in den Beruf kommen, wollen Werkzeuge haben, die zwar für eine Anwendung sind, aber die wie Spiele betrieben werden. Darauf müssen die Grafikkartenhersteller und die Spielsoftwarehersteller, die in diesen Markthineinstoßen, zwangsläufig Rücksichtnehmen. Sie hatten weitere Punkte genannt. Die zweite Entwicklung liegt im Bereich der Mobilität. Man ist sozusagen dauernd unterwegs und möchte Geräte zur Handhaben, mit denen man kommunizieren kann. Man bekommt die Bilder in einer hohen Qualität angeliefert, ob das zum Telefon oder zum Palm ist. Wenn man Geräte wechselt und Umgebungen wechselt, möchte man nicht umformatieren und die Daten transformieren und übertragen. Alles muss mehr oder weniger automatisch passieren. Das wird auch ein Bereich sein, der sehr viel Einfluss auf die Grafikentwicklung haben wird. Bisher muss man ja jede Art von Maschinerie in irgendeiner Weise manuell bedienen. Man guckt etwas an und drückt irgendwelche Knöpfe. Halten Sie es für denkbar, dass man so etwas mit Gedanken steuert? Ich hatte fünf Punkte gesagt und komme zu dem Thema Ambient Intelligence und dem damit verbundenen Paradigmenwechsel zurück. Aber, um die Frage direkt zu beantworten: Es gibt schon Entwicklungen, wo man einfach über Messungen am Gehirn versucht, Impulse zu bekommen, die man wiederum in Eingabefunktionen transformiert. Die dritte Entwicklung, die ich kommen sehe, ist die Frage der Semantik. Als ich in der ganzen Computerei angefangen habe, war man froh, dass man Daten verarbeiten konnte. Dann kam man weg von den Nummern zu den Texten, dann hat man den Texten irgendwelche Zeiger gegeben und konnte so Datenstrukturen generieren. Damit waren wir in der Lage, zum Beispiel Geometrien aufzubauen. Dann hat man diese Daten verpointert und ihnen Attribute gegeben. Dadurch hatten wir schon so eine Art Syntax, mit der wir dann auch arbeiten konnten. Jetzt ist man dabei, zu versuchen, Semantik in die Datenstrukturen hinein zu programmieren. Und wenn man Semantik in die Datenstrukturen programmiert, kann man auch Bedeutung programmieren, das ist das, was man heute Wissensverarbeitung, Wissensmanagement nennt. Für die Grafik ist die Herausforderung die Bedeutung der Bilder. Nehmen wir den Bereich Sicherheit. Die Amerikaner sind dabei, überall mit Sensoren und allen möglichen Technologien für das Homeland Security Daten zu erfassen. Sie werden langsamer schlagen von diesen Datenmengen. Die Frage ist jetzt, wie kann man interdisziplinär und multidisziplinär aus den Bildern eine Bedeutung heraus gewinnen. In dieser Richtung passiert eine Menge, man nennt es Visual Analytics. Und dieses Gebietexplodiert im Augenblick. Überall die gleiche Problematik: Wie kann ich aus den Bildern automatisch und interaktiv Semantik gewinnen? Das ist die dritte Schiene, die die grafische Datenverarbeitung sehr beeinflussen wird.Der vierte Bereich – da stehe ich nochziemlich alleine, aber das wäre nicht das erste Mal – ist die digitale Fotografie, die einen riesigen Einfluss haben wird. Wir bekommen eine ganze Generation von Menschen, die in der Lage ist, mit digitaler Fotografie umzugehen. Das wird immerbilliger, immer breiter, es gibt einen riesigen Markt. Es gibt ein sehr interessantes Projekt bei Microsoft, mit dem kann man zum Beispiel ein Familienfoto dadurch generieren, dass man die einzelnen Familienmitglieder an verschiedenen Standorten aufnimmt und dann mit einer Software das alles zusammen integriert. Das können unsere Leute in der Werbeagentur auch und das wird auch sehr häufig gemacht. Das ist richtig, aber in Zukunft wird es Software geben, mit der man zum Beispiel einen auf dem Bild zum Lachen bringt, oder, oder … Das ist etwas anderes. Ich bin mir noch nicht im Klaren, wie das gemacht werden könnte, aber ich denke, wenn digitale Fotografie zu etwas Selbstverständlichem wird, wird dasselbe passieren wie mit den Handys. Ich erinnere mich, als die Handys auf den Markt kamen, habe ich gesagt, wir wollen damit Bilder generieren. Da hat mir der Abteilungsleiter gesagt, „Man merkt, du wirst alt. Wie willst du beim Handy Bilder generieren? Denk mal an die Auflösung des Bildschirmes, denk mal an, an die Übertragungsrate“. Ich habe geantwortet, es sei eine reine Frage der Zeit. Diese Dinge werden von alleine besser werden. Ich habe ein Gefühl, die digitale Fotografie wird eine neue Achse im Vielkoordinatensystem der Nutzung von Bildern in der IT-Welt bilden. Sie hatten einen fünften Bereich genannt, der Ihnen sehr wichtig war. Der letzte Bereich, aber auch wahrscheinlichwichtigste - und das hatten Sie vorher schon angesprochen – lässt sich vielleicht so charakterisieren: Die Computerei wird durch die Konvergenz der Medien, durch die Telekommunikation, durch die Mobilität zu so etwas wie Wasser, Licht oder Telefon. Wir wollen die benutzen, zu jeder Zeit, an jedem Ort, für jeden Zweck und für Jedermann bedienbar. Wenn wir früher Grafik entwickelt haben, zum Beispiel für die Automobilindustrie, dann ist es so gewesen, dass, wenn eine neue Funktion geändert wurde, dann wurden die Leute darin ausgebildet. Und es war und ist noch immer so, dass die Entwicklung einer Funktion nur ein Zehntel von dem kostet, was an Weiterbildung investiert werden muss, wenn die Funktion eingeführt wird. Denn Benutzer müssen trainiert werden. Wenn man aber jetzt Telekommunikation, Mobilität und das alles betrachtet, dann hat man nicht einige tausend Benutzer, man hat zehn Millionen Benutzer. Und die können nicht mehr ausgebildet, weitergebildet und trainiert werden. Das heißt, plötzlich steht der Mensch irgendwo und die Umgebung muss in der Lage sein, wie Wasser, Licht, Telefon bedienbar zu sein. Auch heute weiß kaum ein Mensch, wie Strom erzeugt wird, weiß kaum ein Mensch, wo Wasser herkommt. Licht wird mit einem Schalter ein- und ausgeschaltet, beim Wasser ist es ähnlich. Mit der Computerei wird es auch so sein. Mit allen Sensoren, die wir heute haben, mit den Fernsehkameras, wird der Mensch in den Mittelpunktgestellt, er wird beobachtet, er wird über Sensoren erfasst und dann wird mit den Technologien, die man in Neudeutsch Awareness nennt computergesteuert darauf reagiert. Es gibt Positions-Awareness– man wird feststellen, wo er ist – es gibt Performance-Awareness – man wird wissen, was er leistet oder leisten kann. Dann gibt es Aufgaben-Awareness – man wird interpretieren können anhand von Modulierung, was er gerade braucht und alles zusammen nennt man Ambient Intelligence. Diese Ambient Intelligence stellt einen Paradigmenwechsel dar: der Bediener ist nicht mehr der Operator der Technologie. Die Technologie bedient ihn auf der Basis seiner Aktionen und Reaktionen. Und da kommt diese Multimodalität ins Spiel. Reaktionen werden sein Gestik, Sprache, Mimik, oder Bewegung. Die Bedienung ist nicht mehr wie früher, als man zunächst eine Funktion ausgewählt und die Parameter eingegeben hat und da drin war eine Software, die nun schlauerweise die Funktion ausgeführt hat. Jetzt wird es eher so sein, dass der Rechner nachschaut, wie jemand guckt, reagiert, anzeigt, spricht und aus diesem Parametersatz heraus bedient er den Benutzer. In dieser Richtung entwickelt sich im Augenblick sehr viel. Eine der Killerapplikationen für diesen Bereich ist das so genannte Ambient Assisted Living, was bedeutet, dass unser Lebensraum so mit IT durchsetzt wird, ob zu Hause, in der Arbeit, in der Schule, im Krankenhaus und dass wir besonderes Zutun bedient werden in diesem Lebensraum. Das ist Orwell :Big Brother is watching you. Ja gut, das kann man jetzt sozusagen im Sinne von Science Fiction formulieren, aber es ist ein bisschen anders. Lasst uns mal als Beispiel Ambient Assisted Living für die älteren, pflegebedürftigen Menschen nehmen. Wenn ein älterer Mensch zu Hause auf den Boden fällt und kein Mensch kriegt es mit, das ist ein Problem. Mit den heutigen Technologien könnte man erfassen, dass er auf den Bodengefallen ist, dass er auf dem Boden liegt. Dann könnte man über Sensoren, die er vielleicht sogar in der Kleidung hat, wissen, ob das eine Herzgeschichte ist oder Blutdruckgeschichte ist oder ob er im Haus nur ausgerutscht ist. Das kann man dann an ein Krankenhaus oder an seinen Hausarzt oder an die Familie weitergeben und es kann schnell reagiert werden. Mein Einwand bleibt trotzdem bestehen. Alles, was wir in eine computerisierte Technologie einfüttern können, das kann man natürlich auch kolportieren, das heißt, man kann es woanders hintransportieren, man kann es abfragen. Wenn wir alle total kontrolliert werden, dann kann natürlich auch irgendjemand auf den Knopf drücken und sagen, also diese Leute, die jetzt gerade das tun, die werden wir alle mal einspeisen Aber das passiert heute schon. Aber mit der neuen Technologiewürde natürlich die Gefahr des Missbrauchs des Ambient Intelligence enorm wachsen. Wie lässt sich dies verhindern? Die Problematik haben wir heute schon. In dem Augenblick, in dem man Kreditkartenbenutzt, ist man sozusagen protokolliert. Der Missbrauch muss verhindert werden. Dafür muss ein Ethikverständnis und ein juristisches Gerüst entwickelt werden. Jedoch: die Positivbeispiele sind überwiegend und dieses ganze Thema Ambient Assisted Living, ob das beim Einkaufen ist, in der Schule, zu Hause, wird kommen. Das bedeutet, dass dann die so genannte Multimodalität zum Tragen kommt, Grafik alleine reicht nicht, sondern es muss Grafik mit Sprache mit Interpretation von Gestik und Mimik kombiniert werden. Man nennt es nicht mehr Mensch-Maschine-Kommunikation sondern Mensch-Umgebungs-Interaktion. Das heißt, ich habe eine Umgebung, dieser Raum ist hier voller Sensoren und Computer, wie interagiere ich jetzt mit der Umgebung. Über die Interaktion kommt dann eine Dienstleistung für mich zustande. Für mich stellen die fünf aufgeführten Themen Bereiche dar, in denen die wesentlichen Entwicklungen, die die grafische Datenverarbeitung voranpushen werden, zu erwarten sind. Dies ist ein gutes Schlusswort. Herr Encarnação, wir danken Ihnen für dieses Gespräch. Foto: © Prof. Dr. -Ing. José L. Encarnação |
L&M 3 / 2008Das komplette Heft zum kostenlosen Download finden Sie hier: zum Download Der Autor:NewsSchnell und einfach die passende Trennsäule findenMit dem HPLC-Säulenkonfigurator unter www.analytics-shop.com können Sie stets die passende Säule für jedes Trennproblem finden. Dank innovativer Filtermöglichkeiten können Sie in Sekundenschnelle nach gewünschtem Durchmesser, Länge, Porengröße, Säulenbezeichnung u.v.m. selektieren. So erhalten Sie aus über 70.000 verschiedenen HPLC-Säulen das passende Ergebnis für Ihre Anwendung und können zwischen allen gängigen Herstellern wie Agilent, Waters, ThermoScientific, Merck, Sigma-Aldrich, Chiral, Macherey-Nagel u.v.a. wählen. Ergänzend stehen Ihnen die HPLC-Experten von Altmann Analytik beratend zur Seite – testen Sie jetzt den kostenlosen HPLC-Säulenkonfigurator!© Text und Bild: Altmann Analytik ZEISS stellt neue Stereomikroskope vorAufnahme, Dokumentation und Teilen von Ergebnissen mit ZEISS Stemi 305 und ZEISS Stemi 508ZEISS stellt zwei neue kompakte Greenough-Stereomikroskope für Ausbildung, Laborroutine und industrielle Inspektion vor: ZEISS Stemi 305 und ZEISS Stemi 508. Anwender sehen ihre Proben farbig, dreidimensional, kontrastreich sowie frei von Verzerrungen oder Farbsäumen. © Text und Bild: Carl Zeiss Microscopy GmbH |