Technologien
In den Cybercity Ausstellungen werden eine Vielzahl innovativer Technologien angewandt. Hier können Sie mehr über den technologischen Ansatz erfahren.
Multi Kamera Roboter |
In den Ausstellungen werden 2 Arten von Telepräsenz-Video-Robotern genutzt. Der Multi Kamera Roboter ist eine davon. Er wird lokal gesteuert. Eine Panoramakamera, die dem Nutzer einen Weitwinkel-Blick auf die Miniatur-Landschaft bietet, ist auf das Fahrgestell montiert. Der Roboter nutzt Servomotoren, ein Arduino Motor Control Board, Radio Control (RC)-Technologie, Batterien, Sensoren und zahlreiche 2,4-GHz-Video-Sender, um High Definition Video-Bilder für die Benutzer zu senden. Der MCR hat außerdem eine Kamera direkt über seinem Mittelpunkt, die dem Besucher den Boden zeigt, der den Roboter umgibt. Dieser "Über-Blick" bietet den Besuchern eine Übersicht über die Umgebung und ermöglicht eine natürlichere Interaktion.. |
Über das Internet gesteuerte Roboter |
|
Die zweite Art von Roboter, die in der Ausstellung verwendet wird, ist mit dem Internet verbunden und kann über Skype von jedem Ort der Welt aus gesteuert werden. Dieser Robotertypus verwendet Mini-Computer mit Intel Dual Core 2-Chips, Weitwinkel-Kameras mit Autofokus, Arduino Motor Control Boards, Hochleistungs-Lithium / Ion-Batterien, ein RFID-Lesegerät, 12VDC Getriebemotoren und IR-Sensoren. Die benutzerdefinierte Software der Roboter, kann über das Internet via Skype weltweit von jedem Nutzer bedient werden, der die Steuer-Software von der Projekt-Website herunter geladen hat. Das RFID-Lesegerät kann die Daten auf den RFID Chips im „Intelligenten Bodenbelag“ lesen und im Informationscenter der Steuerungssoftware bereitstellen.. |
Online Interface „Videoroboter Fernsteuerung“ |
|
Um die Roboter weltweit steuern zu können, steht dem Online Besucher die RobotDriver Anwendung zum Download auf der Projektwebseite bereit. Zusammen mit Skype ist es mit dieser Applikation möglich, den Videoroboter über das Internet durch Betätigung der Pfeiltasten auf der Tastatur zu steuern. Links abgebildet ist die Skype Schnittstelle und rechts die RobotDriver Anwendung. |
Intelligenter Bodenbelag |
|
Der Bodenbelag unter dem fahrenden Roboter enthält eingebettet hunderte Radio Frequency Identification’ (RFID) Markierungen, sogenannte Tags. Diese übermitteln dem Roboter eine ‚Google Maps’ ähnliche Übersicht über eigene Position im Feld. Die Tags werden gleichfalls um jedes Austellungsmodell herum positioniert, die dem Besucher detaillierte Informationen über das Projekt und den jeweiligen Künstlern übermitteln. Diese Tags schaffen eine einzigartige Umgebung, die auf die Position der Roboter reagiert, Hintergrundinformation übermittelt und den statischen Modellen Leben einhaucht. |
Körpergesteuerte Roboterschnittstelle (Step Pad) |
|
Zur Steuerung der Roboter verwenden lokale Nutzer mit Hilfe des Step Pad Interface eine Schnittstelle, die die Körperbewegung als Steuereingang nutzt. Das Step Pad ermöglicht den Ausstellungsbesuchern, einen der Roboter über die Bewegung ihrer Körper auf natürliche Weise so zu steuern, dass sie das Gefühl haben, tatsächlich durch eine Stadt zu schlendern. Ein Step Pad ist mit dem Multi Kamera-Roboter verbunden, der lokal von der Ausstellung aus gesteuert wird. Hierzu gehören auch Overhead-Beamer, die dem Besuchern die Video-Bilder des Bodens um den Roboter herum zeigen. Der zweite Step Pad ist in der virtuellen Ausstellung mit einem der Internet gesteuerten Roboter verbunden. Diese intuitiven Interface-Lösungen ermöglichen es dem Publikum, in der Ausstellung so zu agieren, als ob sie durch eine reale Umgebung bummeln. Sie bieten eine Art Science-Fiction / Projection Cave Erlebnis für die Besucher, die mit der Modell-Umgebung interagieren. |
Telepräsenz Möbel / Web Booth oder Web Box |
|
Die Besucher beider Ausstellungsorte (live und virtuell) sind mit Hilfe der Web Box in der Lage, sich zu begegnen und miteinander zu kommunizieren. Beide Orte sind durch die Web Box miteinander verbunden. Die Besucher und auch die Tische, an denen sie sitzen, werden in voller Lebensgröße in die jeweils andere Ausstellung projiziert. So wird in beiden Ländern ein Gefühl der Anwesenheit des – in Wirklichkeit weit entfernten - Gesprächspartners erzeugt. Die Barriere, die durch die Distanz besteht wird eingerissen, direkter Augenkontakt wird möglich. Die dreidimensionalen Bilder, der „gemeinsame“ Tisch, all das lädt Menschen aus beiden Kulturen ein, sich zusammen zu setzen und „gemeinsam“ einen Kaffee zu trinken oder ein Gesellschaftsspiel zu spielen, so als läge nur ein Meter zwischen ihnen und nicht beinahe eintausend Kilometer (www.webchair.com). |
Entwickelt von..
Die verschiedenen Telepräsenz Technologien wurden von Graham Smith entwickelt in Kooperation mit Webchair VOF in Den Haag und:
- Über das Internet gesteuerte Roboter: Mohammad Yosuf Haydary (NL, Faculty Robotics and Interaction, University of Applied Sciences of Rotterdam), Jeff Mann, Electronic Artist (DE, CAN). Pre-study by Engineering Faculty Chair of Dynamics and Control,University Duisburg-Essen, Prof. Dr.-Ing. Dirk Söffker, Dipl.-Ing. Dennis Gamrad. (DE)
- Online Interface: Annelies Wisse, Master Design for Interaction (NL), Faculty of Industrial Design Engineering, Technical University Delft.
- Intelligenter Bodenbelag & Design der Roboter: Jorrit van der Zee (NL), Nicolo Giacomello (NL), Faculty Intelligent Product Design, HKU Utrecht School Of The Arts.
- Telepräsenz Möbel / Web Box: Nicolo Giacomello (NL, Faculty Intelligent Product Design, HKU Utrecht School Of The Arts). Pre-study Technical University Eindhoven, Sam Nemeth.
- Step Pad: Jeff Mann, Electronic Artist, (DE, CAN)
Besonderen Dank auch an Clara Kerkstra, Rick Storm und Jens Oliver Robbers für die grafische Gestaltung und die visual indentity.