• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Międzynarodowe warsztaty nt. tworzenia klastrów danych o dużej wymiarowości, Neapol, Włochy

    16.04.2012. 15:26
    opublikowane przez: Redakcja Naukowy.pl

    W dniu 15 maja 2012 r. we włoskim Sorrento odbędą się "Międzynarodowe warsztaty nt. tworzenia klastrów danych o dużej wymiarowości".

    Jednym z największych obecnie problemów związanych z technikami uczenia maszynowego jest wymiarowość zbiorów danych. W wielu zastosowaniach wobec realnych problemów dane mogą pochodzić z dowolnego źródła z zakresu od kilkudziesięciu do wielu tysięcy wymiarów.

    Takie wielowymiarowe przestrzenie danych są często spotykane w takich dziedzinach, jak medycyna i biologia, gdzie technologia może jednorazowo wygenerować dużą liczbę pomiarów. Może to spowodować trudności z opanowaniem problemu nauki.

    Wydarzenie będzie stanowiło forum dla zainteresowanych stron, umożliwiające zbadanie aktualnych podejść do budowania klastrów danych o dużej wymiarowości. Dobór tematów jest następujący:
    - klastrowanie relacyjne,
    - redukcja danych z zastosowaniem zbiorów przybliżonych i rozmytych,
    - klastrowanie w podprzestrzeni,
    - klastrowanie prognostyczne,
    - klastrowanie korelacyjne,
    - bioklastrowanie/współklastrowanie,
    - klastrowanie zespołów,
    - klastrowanie wielowidokowe.

    Za: CORDIS

    Czy wiesz ĹĽe...? (beta)
    Normalizacja bazy danych jest to proces mający na celu eliminację powtarzających się danych w relacyjnej bazie danych. Główna idea polega na trzymaniu danych w jednym miejscu, a w razie potrzeby linkowania do danych. Taki sposób tworzenia bazy danych zwiększa bezpieczeństwo danych i zmniejsza ryzyko powstania niespójności (w szczególności problemów anomalii). William Harvey Inmon (ur. 1945) – amerykański informatyk, uznawany przez wielu za ojca hurtowni danych. Bill Inmon napisał książkę, która była podstawą do nauki o hurtowniach danych. Stworzył on definicję hurtowni danych (ang. Data Warehouse) zawierającą czas zbierania danych w wariancie wsparcia zarządzania decyzjami. W porównaniu z podejściem innych pionierskich architektów hurtowni danych miedzy innymi Ralpha Kimballa, podejście Inmona jest często określane jako podejście top-down. Analiza danych – proces przetwarzania danych w celu uzyskania na ich podstawie użytecznych informacji i wniosków. W zależności od rodzaju danych i stawianych problemów, może to oznaczać użycie metod statystycznych, eksploracyjnych i innych.

    Big data – termin odnoszący się do dużych zbiorów danych, których przetwarzanie wymaga zastosowania specjalistycznego oprogramowania. W praktyce pojęcie dużego zbioru danych oznacza rozmiar wyrażany przy pomocy co najmniej dziesiątek terabajtów, a często nawet petabajtów. Big data ma zastosowanie wszędzie tam, gdzie dużej ilości cyfrowych danych towarzyszy potrzeba zdobywania nowych informacji lub wiedzy. Szczególne znaczenie odgrywa wzrost dostępności Internetu oraz usług świadczonych drogą elektroniczną, które w naturalny sposób są przystosowane do wykorzystywania baz danych. Analiza koszykowa, jest metodą z zakresu eksploracji danych, tworzącą dla zbioru danych zestaw opisujących go przybliżonych reguł asocjacyjnych typu "Jeżeli poprzednik to zwykle następnik", gdzie poprzednik i następnik to wyrażenia logiczne, np.

    Kostka OLAP (ang. OLAP cube) – jest strukturą danych, która pozwala na szybką analizę danych. Przechowuje ona dane w sposób bardziej przypominający wielowymiarowe arkusze kalkulacyjne niż tradycyjną, relacyjną bazę danych. Można ją również zdefiniować jako zdolność manipulowania i analizowania danych z różnych punktów widzenia. Rozmieszczenie danych w kostkach pokonuje ograniczenia relacyjnych baz danych. Rejestr zbiorów danych osobowych - ogólnokrajowy, jawny rejestr zbiorów danych osobowych zgłoszonych przez administratorów danych, prowadzony przez Generalnego Inspektora Ochrony Danych Osobowych na podstawie art. 42 ustawy z dnia 22 stycznia 1997 r. o ochronie danych osobowych.

    Kartotekowa baza danych (lub prosta baza danych) - baza danych złożona z jednej lub kilku tablic zawierających rekordy, z których każdy zawiera identyczną strukturę pól. Każda tablica danych jest samodzielnym dokumentem i nie może współpracować z innymi tablicami, w przeciwieństwie do relacyjnej bazy danych. W przetwarzaniu komputerowym, trwała struktura danych albo czysto funkcyjna struktura danych to struktura danych, która zawsze zachowuje swoje poprzednie wersje, kiedy są modyfikowane. Takie struktury danych są w efekcie niezmienne, jako że operacje na nich nie powodują zmiany samej struktury, lecz powoduje powstanie nowej, uaktualnionej jej wersji. Trwała struktura danych nie jest strukturą danych składowaną na trwałym nośniku danych, takim jak dysk; jest to inne i niepowiązane znaczenie słowa "trwały".

    HOLAP - (Hybrid OLAP) stara się łączyć zalety ROLAP i MOLAP. Wykorzystane są tutaj jednocześnie wielowymiarowe (dane zagregowane) oraz relacyjne (dane elementarne, bez dublowania) bazy danych. Zapytania szczegółowe są wykonywane wolniej, ponieważ działają na strukturze relacyjnej (ROLAP). Dane w HOLAP maja zwykle mniejszy rozmiar niż dane w MOLAP. Struktury HOLAP są przeznaczone dla potrzeb szybkiego dostępu do agregacji bazujących na dużych zbiorach danych.

    Programowanie komputerów to proces projektowania, tworzenia, testowania i utrzymywania kodu źródłowego programów komputerowych lub urządzeń mikroprocesorowych (mikrokontrolery). Kod źródłowy jest napisany w języku programowania, z użyciem określonych reguł, może on być modyfikacją istniejącego programu lub czymś zupełnie nowym. Programowanie wymaga dużej wiedzy i doświadczenia w wielu różnych dziedzinach, jak projektowanie aplikacji, algorytmika, struktury danych, znajomość języków programowania i narzędzi programistycznych, wiedza nt. kompilatorów, czy sposób działania podzespołów komputera. W inżynierii oprogramowania, programowanie (implementacja) jest tylko jednym z etapów powstawania programu.

    Napęd Zip – rodzaj napędu i nośnika danych używanego głównie do tworzenia kopii zapasowej danych i archiwizacji plików. Cassandra, Apache Cassandra – rozproszony system zarządzania bazą danych o charakterze open source. Został zaprojektowany do obsługi dużej ilości rozproszonych danych na wielu serwerach, który będzie nadal funkcjonował nawet jeśli jeden z serwerów przestanie działać.

    Operacyjne bazy danych - bazy wykorzystywane wszędzie tam, gdzie istnieje potrzeba nie tylko na gromadzenie danych, ale również na możliwość ich modyfikowania. Ten typ baz przechowuje dane dynamiczne, tzn. takie, które ulegają ciągłym zmianom i przedstawiają aktualny stan rzeczy, której dotyczą. Zazwyczaj to ten typ bazy można spotkać w różnych organizacjach i firmach. Przykładem takiej bazy danych są np. bazy inwentaryzacyjne lub bazy obsługi zamówień. Przestrzenna baza danych (ang. spatial database) - jest bazą danych zoptymalizowaną do składowania i odpytywania danych powiązanych z obiektami w przestrzeni, takimi jak: punkty, linie i wielokąty. Tradycyjne bazy danych mogą przyjmować dane w postaci liczbowej i znakowej, natomiast do przetwarzania przestrzennych typów danych potrzebują dodatkowej funkcjonalności. Open Geospatial Consortium stworzył specyfikację i zbiór standardów dodawania przestrzennych funkcjonalności do systemów bazodanowych.

    Baza danych sieci elektroenergetycznej - baza danych która jest źródłem danych do prowadzenia wszelkiego rodzaju obliczeń sieciowych niezbędnych w praktyce eksploatacyjnej i w planowaniu rozwoju.

    Dodano: 16.04.2012. 15:26  


    Najnowsze