Page Areas:



Current Submenu:

Additional Information:

FAW @ Lange Nacht der Forschung 2016

Lange Nacht der Forschung 2016

Campus map

Campusplan JKU Linz

Our location on campus ...  more of Campus map (Titel)

Softwarepark Hagenberg

Hier den Alternativtext zum Bild eingeben!

Our location on Softwarepark Hagenberg ...  more of Softwarepark Hagenberg (Titel)


Position Indication:

Content

Data Mining mit Neunet

Student: Sylvia Maria Hagmüller
Supervisors: Univ.-Prof. Dr. Roland Wagner , A.Univ.-Prof. Dr. Josef Küng
End: 15.11.1999

Abstract(DE)
In dieser Arbeit wird, nach einem Einführungsteil, in dem ein Überblick über die wichtigsten Data Mining Methoden und über künstliche neuronale In dieser Arbeit wird, nach einem Einführungsteil, in dem ein Überblick über die wichtigsten Data Mining Methoden und über künstliche neuronale Netzwerke gegeben wird, gezeigt, dass das an der Universität Linz entwickelte neuronale Netzwerk Neunet, auch zur Lösung von Data Mining Aufgaben geeignet ist.
Es wurde eine Möglichkeit erarbeitet, wie mit Hilfe der Modelle der Neunet-Familie neue Informationen aus großen Datenmengen ermittelt werden können. Dabei wurde festgestellt, dass das herkömmliche Neunet-3, das die Fähigkeit der parallelen Assoziation besitzt, einige gravierende Nachteile bei der Anwendung für Data Mining Aufgaben aufweist. Es wurde deshalb eine entsprechende Erweiterung dieses Modells durchgeführt, wodurch nun ein Neunet-3 für die Data Mining Methode 'Association' eingesetzt werden kann. Durch die Verhaltensänderung können neue Abfragen, wie 'Wenn X wie häufig tritt dann Y auf ?' an das Netzwerk gestellt und die Häufigkeit, Support und Confidence - wichtige Maßzahlen im Bereich des Data Minings - ermittelt werden.
Der Schritt vom halbautomatischen Knowledge-Discovery-Prozess mit Neunet-3 - bei der immer ein Fragesteller notwendig ist - zur vollautomatischen Wissensakquisition wurde mit Hilfe des Fuzzy Neunets im zweiten Teil der Arbeit vollzogen. Es wird gezeigt, dass das Fuzzy Neunet in der Lage ist, selbständig aus großen Datenmengen 'interessante' Informationen herauszufiltern. Dadurch ist es möglich, auch Daten, die gänzlich unbekannt sind, und sich somit einer gezielten Fragestellung eines menschlichen Experten entziehen, beziehungsweise erheblichen Zeitaufwand zur Analyse benötigen würden, zu untersuchen und neues, verborgenes Wissen zu extrahieren.