Seitenbereiche:



Menü des aktuellen Bereichs:

Zusatzinformationen:

JKU-Fangemeinde auf Facebook

Werde JKU-Fan auf Facebook!

Werde JKU-Fan auf Facebook! ...  mehr zu JKU-Fangemeinde auf Facebook (Titel)

Social Media


Positionsanzeige:

Inhalt:

Wie man einen Plastikfilm das Sehen lehrt

Wie man einem Plastikfilm das Sehen lehrt
Den weltweit ersten biegbaren und transparenten Bildsensor hat das Institut für Computergrafik der Johannes Kepler Universität (JKU) Linz bereits 2013 der Öffentlichkeit vorgestellt. Nun hat das Team um Institutsvorstand Prof. Oliver Bimber den nächsten Durchbruch geschafft: Ein neuartiges Machine-Learning-Verfahren ermöglicht die Rekonstruktion von fast gestochen scharfen Bildern.

Der Bildsensor besteht aus einem dünnen und transparenten Polycarbonat-Film, der mit fluoreszierenden Partikeln angereichert ist. Licht, das den Film durchdringt, wird teilweise im Inneren absorbiert, in einer anderen Wellenlänge emittiert und zum Filmrand transportiert. Dort wird mit einer ausgeklügelten Technik ein zweidimensionales Lichtfeld vermessen (d.h. der Anteil des transportierten Lichtes, der an jeder Stelle den Rand in alle Richtungen verlässt). Aus diesem Lichtfeld lässt sich genau das Bild errechnen, das auf der Filmoberfläche optisch abgebildet wird.

Sensor lernt Rekonstruktion
Die bisherigen Bildrekonstruktionsansätze verfolgten dabei ähnliche mathematische Ansätze, wie man sie auch in der Computertomografie nutzt. Die Bildauflösung ist bei solch einem rein rechnerischen Ansatz allerdings stark beeinträchtigt. Das neue Verfahren errechnet die Bilder nicht länger einfach aus den gemessenen Lichtsignalen. Vielmehr wird der Sensor einmalig mit vielen tausenden von Zufallsbildern trainiert, um eine deutlich bessere Bildrekonstruktion zu erlernen. Diese Bilder stammen aus öffentlichen Online-Bilddatenbanken, wie z.B. Flickr oder Picasa. Nach ausgiebigem Training ist der Sensor dann in der Lage, mit dem angeeigneten Wissen über den Zusammenhang von Bild- und Lichtsignalen beliebig neue Bilder zu rekonstruieren – auch solche, die nicht trainiert wurden. Da sich aus dem Training Informationen ableiten lassen, die so komplex sind, dass sie sich rein mathematisch nicht (oder nur sehr schwer) beschreiben lassen, wird die Bildqualität mit dem Lernansatz deutlich verbessert.

Zahlreiche Anwendungsmöglichkeiten
Die neuen Ergebnisse werden nun in einem dritten Artikel zu diesem Projekt im renommierten Journal der Optical Society of America (OSA), Optics Express, veröffentlicht. Neben der initialen Präsentation des Sensors im Jahr 2013, wurde dort bereits Anfang 2014 die Möglichkeit zur Tiefenrekonstruktion mit Hilfe des Sensors publiziert.
„Wir leisten hier zwar in erster Linie Grundlagenforschung, stehen aber an der Schwelle zu weitreichenden Anwendungen“, so Prof. Bimber. Künftig könnte die neue Technologie z.B. dafür sorgen, dass Autowindschutzscheiben während der Fahrt den Zustand des Fahrers und der Passagiere überwachen oder Geschäftsauslagen die Blicke der Kunden auswerten.

Kooperation mit Microsoft

Das von Microsoft finanzierte, interdisziplinäre Grundlagenforschungsprojekt zielt auf die Entwicklung einer neuen Technologie ab, die die Möglichkeiten herkömmlicher Touchsensoren, die heute in vielen Geräten zu finden sind, enorm erweitert. Der nächste Schritt in der Entwicklung soll ebenfalls bahnbrechend werden: Das Projektteam um Prof. Bimber arbeitet bereits an einem weiteren Verfahren, das den Sensor nicht nur lehrt Bilder zu sehen, sondern sie auch zu verstehen.

Video: http://youtu.be/oVlPSjiEMww


Foto 1: Transparenter und biegbarere Bildsensor und Rekonstruktionsergebnis eines Bildes
Foto 2: Prof. Oliver Bimber

 

[Christian Savoy]