• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Knowledge discovery and data mining meets linked open data, Heraklion, Grecja

    09.03.2012. 17:26
    opublikowane przez: Redakcja Naukowy.pl

    27 maja 2012 r. w Heraklionie (Grecja) odbędzie się wydarzenie pt. "Knowledge discovery and data mining meets linked open data" (Odkrywanie wiedzy i eksploracja danych a ogólnodostępne dane skojarzone).

    Odkrywanie wiedzy i eksploracja danych to dziedziny dysponujące wieloma metodami badawczymi, pozwalającymi analizować wzorce i regularności w dużych zbiorach danych. Badania w tych obszarach doprowadziły do stworzenia praktycznych i skalowalnych metod, takich jak odkrywanie reguł asocjacyjnych, pozyskiwanie danych z podgrup, pozyskiwanie danych z wykresów i klastrowanie.

    Powodzenie technik tzw. danych skojarzonych (linked data) oraz ich stosowania w aplikacjach zapewnia wiele nowych możliwości, ale z drugiej strony skala i heterogeniczność danych internetowych jest źródłem licznych wyzwań.

    Wydarzenie będzie próbą przyjrzenia się możliwym synergiom między technologiami danych skojarzonych i odkrywania wiedzy. W programie przewidziano dyskusję nad sposobami dostosowania najnowszych algorytmów odkrywania wiedzy i eksploracji danych do specyfiki danych skojarzonych, czyli cech takich jak rozproszenie czy niekompletność (tzn. brak przykładów negatywnych), a także na temat określania konkretnych zastosowań tych metod.

    Za: CORDIS

    Czy wiesz ĹĽe...? (beta)
    Eksploracja danych (spotyka się również określenie drążenie danych, pozyskiwanie wiedzy, wydobywanie danych, ekstrakcja danych) (ang. data mining) - jeden z etapów procesu odkrywania wiedzy z baz danych (ang. Knowledge Discovery in Databases, KDD). Idea eksploracji danych polega na wykorzystaniu szybkości komputera do znajdowania ukrytych dla człowieka (właśnie z uwagi na ograniczone możliwości czasowe) prawidłowości w danych zgromadzonych w hurtowniach danych. Text mining(eksploracja tekstu) – ogólna nazwa metod eksploracji danych służących do wydobywania danych z tekstu i ich późniejszej obróbki. Data Vault – technika modelowania danych (w hurtowniach danych) zaprojektowana tak, aby zapewnić przechowywanie danych historycznych z wielorakich systemów operacyjnych (źródłowych). Data Vault oznacza również, obok aspektu modelowania, sposób patrzenia na dane historyczne, który zapewnia audytowalność, śledzenie danych, szybkość ładowania oraz odporność na zmiany biznesowe.

    IBM InfoSphere Warehouse – środowisko do projektowania i wdrażania hurtowni danych. W ramach pakietu oprogramowania otrzymujemy narzędzia pozwalające na budowę procesów ETL, eksplorację danych (ang. Data Mining), a także tworzenie aplikacji analitycznych (OLAP) i raportów, opartych o dane strukturalne i niestrukturalne (pliki płaskie). Big data – termin odnoszący się do dużych zbiorów danych, których przetwarzanie wymaga zastosowania specjalistycznego oprogramowania. W praktyce pojęcie dużego zbioru danych oznacza rozmiar wyrażany przy pomocy co najmniej dziesiątek terabajtów, a często nawet petabajtów. Big data ma zastosowanie wszędzie tam, gdzie dużej ilości cyfrowych danych towarzyszy potrzeba zdobywania nowych informacji lub wiedzy. Szczególne znaczenie odgrywa wzrost dostępności Internetu oraz usług świadczonych drogą elektroniczną, które w naturalny sposób są przystosowane do wykorzystywania baz danych.

    Metaanaliza – pojęcie z zakresu analizy danych, określające wtórne odkrywanie wiedzy metodą uogólniania informacji zawartych w publikacjach czy źródłach pierwotnych. Migracja danych (ang. data migration) – przeniesienie danych z jednego systemu informatycznego, bazy danych, formatu danych do innego.

    Informatyka przemysłowa to dziedzina wiedzy znajdująca się na pograniczu nauk informatycznych oraz szeroko pojętych nauk o technologiach przemysłowych i łącząca te dwa zakresy wiedzy. Do głównych zainteresowań informatyki przemysłowej należą: monitorowanie i sterowanie produkcją, numeryczne modelowanie procesów technologicznych, analiza statystyczna zgromadzonych danych, eksploracja danych, zastosowanie narzędzi sztucznej inteligencji, takich jak np. sieci neuronowe i systemy ekspertowe. Strumieniowa baza danych to baza danych, w której dane są przedstawione w postaci zbioru strumieni danych. System zarządzania taką bazą nazywany jest strumieniowym systemem zarządzania danymi (DSMS - ang. Data Stream Management System).

    Analiza koszykowa, jest metodą z zakresu eksploracji danych, tworzącą dla zbioru danych zestaw opisujących go przybliżonych reguł asocjacyjnych typu "Jeżeli poprzednik to zwykle następnik", gdzie poprzednik i następnik to wyrażenia logiczne, np.

    Dodano: 09.03.2012. 17:26  


    Najnowsze