In-silico-Modelle sind heute neben den In-vivo- und In-vitro-Experimenten ein fester Bestandteil der Forschungstätigkeit von Ärzten und Biowissenschaftlern. Ärzte können von wirksamen und zuverlässigen nicht-invasiven, patientenspezifischen Instrumenten profitieren, um die Diagnose und Prognose zu verbessern. Im Gegenzug können mathematische und numerische Modelle rigorose Werkzeuge für quantitative Analysen mit diagnostischem und prognostischem Inhalt liefern, und patientenspezifische Simulationen werden durch die Integration solcher Modelle mit Daten und medizinischen Bildern möglich. Dennoch sind Probleme aus der biomedizinischen Forschung aus Sicht der Modellierung äußerst komplex und anspruchsvoll. Einerseits sind sie typischerweise durch bemerkenswerte Heterogenitäten und eine Dynamik auf mehreren Skalen, sowohl in Raum als auch in Zeit, gekennzeichnet. Andererseits sind sie mit Unsicherheiten behaftet, die in erster Linie aus der Variabilität der Eingaben (aleatorische/reduzierbare Unsicherheit), wie z. B. der anatomischen Definition, den Gewebemerkmalen und unbekannten Randbedingungen, oder aus mangelndem Wissen (epistemische/reduzierbare Unsicherheit), wie z. B. den Modellierungsannahmen oder dem Einfluss noch unbekannter physikalischer Phänomene, resultieren können. Ein zuverlässiges mathematisches Vorhersagemodell sollte in der Lage sein, mit all diesen Aspekten solide umzugehen.
In dieser Hinsicht liegen unsere Hauptaktivitäten in folgenden Bereichen
Die aktuellen Anwendungsgebiete sind
An unserem Institut werden Methoden des maschinellen Lernens, der daten- und wissensbasierte Modellierung zur Lösung von Aufgabenstellungen im Rahmen von geförderten internationalen Forschungs- und Industrieprojekten eingesetzt und weiterentwickelt. Typische Anwendungsbeispiele sind dabei
Wir wenden diese Methoden auf unterschiedliche Arten von Daten an wie beispielsweise (rein numerische) Messdaten, aber auch Zeitreihen, spektroskopische Daten oder Bilddaten.
Zu den dabei eingesetzten Methoden zählen dabei:
Die Forschungsarbeiten und Publikationen am Institut aus diesem Bereich fokussieren auf evolvierende Fuzzy Systeme, auf inkrementellen machinellen Lernverfahren, auf Clustering-Methoden sowie die Fehlererkennung und -vorhersage in industriellen Anwendungen, mit einem Schwerpunkt auf online gelernten interpretierbaren Modellen, welche in Echtzeit und während der Produktionslaufzeit verfeinert, verbessert und adaptiert werden können.
Unter Aggregation versteht man die Bestimmung eines repräsentativen Wertes oder einer repräsentativen Struktur für eine gegebene Ausgangsmenge an Eingangswerten oder Eingangsstrukturen.
Typische Aggregationsprozesse sind beispielsweise:
In vielen Fällen werden Aggregationsprozesse durch reellwertige Funktionen, sogenannte Aggregationsfunktionen, repräsentiert, die abhängig vom konkreten Kontext charakteristische (mathematische) Eigenschaften zu erfüllen haben. Mathematische Eigenschaften werden häufig durch Funktionalgleichungen und Funktionalungleichungen beschrieben. Die Erforschung der Eigenschaften, sowie der Klasse von möglichen Lösungsfunktionen, ebenso wie die Erhaltung von zugrundeliegenden Eigenschaften im Aggregationsprozess stellen Forschungsschwerpunkte des Instituts dar.
Die Analyse von Abhängigkeiten innerhalb von Datenmengen oder zwischen Zufallsgrößen führt auf eine spezielle Klasse von Funktionen, nämlich sogenannte Copula-Funktionen. Dem Satz von Sklar folgend können mehrdimensionale Wahrscheinlichkeitsverteilungen durch eine Copula-Funktion und die eindimensionalen Randverteilungen beschrieben werden, wobei die Copula-Funktion die wechselseitigen (auch asymmetrischen) Abhängigkeiten zwischen den Variablen abbildet. Die Untersuchung, Klassifikation und Konstruktion von Copula-Funktionen (und ihrer Verallgemeinerungen) hinsichtlich weiterer, aus Anwendungen motivierten Eigenschaften ist Teil der Forschungsarbeiten des Instituts und trägt zu einem größeren Verständnis dieser Funktionenklassen und der durch sie repräsentierten Abhängigkeitsmodelle bei.
Im Bereich der Bildverarbeitung entwickeln wir sowohl allgemeine Algorithmen als auch kundenspezifische Lösungen für konkrete Anwendungsprobleme beispielsweise für die Weiterverarbeitung und Auswertung von Mikroskopaufnahmen, von OCT Bildern, sowie Bildern aus der industriellen automatisierten Oberflächeninspektion. Wir kombinieren dazu klassische Bildverarbeitungsmethoden zur Datenvorverarbeitung sowie zur Merkmalserhebung mit maschinellen Lernverfahren für Klassifikations- und Evaluierungsaufgaben. Folgende Techniken kommen dabei zum Einsatz:
Anwendungsfelder sind:
Biologische und medizinische Bilder und Daten, die mit Verfahren der Mikroskopie oder Optischen Kohärenztomographie (OCT) aufgezeichnet werden, stellen zahlreiche Herausforderungen für die Bildverarbeitung dar. Diese liegen hauptsächlich in den Eigenschaften der bildgebenden Techniken und Objekte selbst begründet: Unscharfe Ränder bei Strukturen, Speckles, hohe Variabilität der Objekte in den Bildern, geringes Signal - Rausch - Verhältnis, sowie ebenso das benötigte Expertenwissen.
In unseren Schwerpunkten und Aufgaben fokussieren wir auf:
Detektion von typischen oder seltenen Strukturen (z.B. in Mikroskopie oder OCT Bilddaten)
Klassifikation von Strukturen und Mustern
Bildrekonstruktion und Analyse für OCT Bildgebung
Learning in Bildgebung und Bildverarbeitung
Typische Schritte zur Lösung der Aufgaben sind:
Mathematische Formulierung basierend auf physikalischen Modellen in der Bildgebung
Model Learning basierend auf Daten-getriebenen Modellen
Validierung mittels Simulation und aufgezeichneten Bilddaten
Fuzzylogik und Fuzzy Systeme zählen seit Mitte der 1970er Jahre zu unseren Hauptforschungsgebieten. Seit 1979 wird vom Institut beinahe jährlich das Linz Seminar on Fuzzy Set Theory mit wechselnden inhaltlichen Schwerpunkten organisiert. Nach 15 Jahren rein theoretischer Forschung wurde 1991 das Fuzzylogic Lab Linz-Hagenberg (FLLL) von Prof. Erich Peter Klement gegründet mit dem Ziel, diese Technologien bei der Lösung von industriellen Problemen einzusetzen.
Fuzzylogiken sind mehrwertige Logiken, bei denen die klassischen Wahrheitswerte "wahr" (1) und "falsch" (0) durch ein Kontinuum von Werten, zumeist das Einheitsintervall [0,1] ersetzt werden. Die algebraischen Strukturen von fuzzylogiken, sowie der Fokus im Speziellen auf triangulare Normen, welche zur semantischen Modellierung der logischen Konjunktion in fuzzylogiken herangezogen werden, stellen wichtige Grundlagenforschungsthemen des Instituts dar.
Fuzzy Mengen, die auf dieser mehrwertigen Logik aufbauen, werden für die Modellierung sprachlicher Begriff mit Vagheit wie beispielsweise "groß" oder "klein" verwendet. Fuzzy Mengen können dabei graduelle Mengenzugehörigkeiten bzw. einen fließenden Übergang zwischen der vollständigen Zugehörigkeit und der vollständigen Nichtzugehörigkeit zu einer Menge modellieren.
Ein Hauptanwendungsgebiet der Fuzzylogik ist die Möglichkeit, Menschen ähnliche Entscheidungsprozesse nachzubilden, vor allem in Situationen, in denen vages, unvollständiges und/oder zum Teil widersprüchliches Wissen und Informationen verfügbar sind. Diese Wissen wird in vielen Fällen durch logische und sprachliche Regeln abgebildet, welche wesentliche Bestandteile von Fuzzy Systemen bilden. Ein weiterer Forschungsbereich des Instituts ist die Bestimmung und Entwicklung von Fuzzy Systemen basierend auf Daten oder Datenströmen, sogenannte evolvierender fuzzy Systeme.
Ausgerichtet von unserem Institut treffen sich beim mehrtägigen LinzSeminar für Fuzzy Set Theory Forscher aus aller Welt aus dem Bereich Fuzzylogik und Fuzzy Systeme.