• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Drugie, międzynarodowe warsztaty nt. wysokowydajnej bioinformatyki i biomedycyny, Bordeaux, Francja

    18.07.2011. 16:26
    opublikowane przez: Redakcja Naukowy.pl

    Dnia 31 sierpnia 2011 r. w Bordeaux, Francja, odbędą się drugie, międzynarodowe warsztaty nt. wysokowydajnej bioinformatyki i biomedycyny.

    Wysokowydajne technologie i kliniczne narzędzia diagnostyczne generują coraz większe ilości danych eksperymentalnych i klinicznych. Wielkie bazy danych i narzędzia bioinformatyczne to kluczowe środki organizowania i eksploracji tych danych w celu dokonywania nowych odkryć w biologii i medycynie.

    Wysokowydajna technika obliczeniowa może odegrać istotną rolę na wielu etapach badań w dziedzinie nauk przyrodniczych, od przetwarzania danych pierwotnych i zarządzania nimi, po analizę, integrację i wizualizację. Na poziomie danych pierwotnych w szczególności infrastruktury gridowe mogą zaoferować olbrzymie przestrzenie niezbędne do przechowywania danych eksperymentalnych i biomedycznych, podczas gdy przetwarzanie równoległe może służyć do podstawowego przetwarzania wstępnego oraz bardziej zaawansowanej analizy. W ramach takiego scenariusza nowe architektury równoległe połączone z pojawiającymi się modelami programowania mogą przezwyciężyć ograniczenia tradycyjnych komputerów w zakresie przeszukiwania i eksploracji dużych ilości danych.

    W wydarzeniu wezmą udział naukowcy zajmujący się wysokowydajną techniką obliczeniową, biologią komputerową i medycyną, aby omówić organizację wielkich baz danych biologicznych i biomedycznych oraz równoległe wdrażanie algorytmów bioinformatycznych i aplikacji biomedycznych. Wykorzystanie nowych architektur równoległych i odpowiedniego sprzętu do wdrażania algorytmów bioinformatycznych i biomedycznych również znajdzie się w programie wydarzenia.

    Za: CORDIS

    Czy wiesz ĹĽe...? (beta)
    Blob – w systemach zarządzania bazami danych: typ danych, który umożliwia przechowywanie dużych ilości danych binarnych jako pojedynczy obiekt w bazie danych, stosowany w szczególności do przechowywania danych multimedialnych, takich jak grafika, muzyka czy filmy. Normalizacja bazy danych jest to proces mający na celu eliminację powtarzających się danych w relacyjnej bazie danych. Główna idea polega na trzymaniu danych w jednym miejscu, a w razie potrzeby linkowania do danych. Taki sposób tworzenia bazy danych zwiększa bezpieczeństwo danych i zmniejsza ryzyko powstania niespójności (w szczególności problemów anomalii). Rozproszona baza danych - baza danych istniejąca fizycznie na dwóch lub większej liczbie komputerów, traktowana jednak jak jedna logiczna całość, dzięki czemu zmiany w zawartości bazy w jednym komputerze są uwzględniane również w innych maszynach. Rozproszone bazy danych są stosowane ze względu na zwiększoną wydajność przetwarzania na wielu komputerach jednocześnie.

    PubMed Central – darmowa cyfrowa baza danych, zawierająca pełne teksty artykułów z literatury naukowej w dziedzinie badań biomedycznych i nauk przyrodniczych. Powstała ona na silniku Entrez, używanym m.in. przez PubMed. PubMed Central został opracowany przez US National Library of Medicine (NLM) jako internetowe archiwum artykułów z czasopism biomedycznych. Transaction Processing Performance Council (TPC) jest organizacją typu non-profit założoną w 1985 w celu zdefiniowania testów wydajnościowych w dziedzinie przetwarzania danych. Organizacja ta publikuje wyniki testów, które dzięki dobrze zdefiniowanej metodyce są uważane za obiektywne i weryfikowalne. Wyniki testów TPC są powszechnie stosowane dla porównywania wydajności systemów przetwarzania danych. Specyficzną cechą tych testów jest podawanie wyników, nie tylko w ilości transakcji w jednostce czasu, ale też obliczanie kosztu pojedynczych transakcji bazując na cenie katalogowej użytego systemu. Testy wydajnościowe TPC są stale rozwijane by uzyskać wyniki w sytuacjach zbliżonych do tych, w jakich pracują systemy podczas komercyjnego stosowania przez organizacje zajmujące się przetwarzaniem danych. Stąd na przykład wprowadzenie testów w podziale według kategorii "wielkość bazy danych", gdy eksperci stwierdzili, że liczba rekordów w bazie danych może istotnie wpływać na uzyskiwane wyniki wydajnościowe.

    Carrot2 jest otwartym systemem do przetwarzania danych [tekstowych, w szczególności stosowany jest do grupowania rezultatów wyszukiwania danych w wyszukiwarkach internetowych, choć może być użyty również do innych typów danych i zastosowań. Chemometria - dział chemii zajmujący się wykorzystaniem metod komputerowych, statystycznych, matematycznych oraz symbolicznych w analizowaniu danych chemicznych. Metody chemometryczne mogą również służyć do analizy danych: fizycznych, medycznych i wszelkich innych. Chemometrię stosuje się do projektowania lub wyboru optymalnych procedur eksperymentalnych, aby pozyskać maksimum informacji poprzez analizę danych a także w celu nabywania wiedzy u układach (systemach) chemicznych i nie tylko chemicznych.

    Kostka OLAP (ang. OLAP cube) – jest strukturą danych, która pozwala na szybką analizę danych. Przechowuje ona dane w sposób bardziej przypominający wielowymiarowe arkusze kalkulacyjne niż tradycyjną, relacyjną bazę danych. Można ją również zdefiniować jako zdolność manipulowania i analizowania danych z różnych punktów widzenia. Rozmieszczenie danych w kostkach pokonuje ograniczenia relacyjnych baz danych. Analiza danych – proces przetwarzania danych w celu uzyskania na ich podstawie użytecznych informacji i wniosków. W zależności od rodzaju danych i stawianych problemów, może to oznaczać użycie metod statystycznych, eksploracyjnych i innych.

    Amazon Simple Storage Service (Amazon S3) - internetowy nośnik danych firmy Amazon, ma prosty w obsłudze interfejs WWW, który umożliwia dostęp do przechowywanych danych i zarządzanie nimi. Ilość przechowywanych danych jest praktycznie nielimitowana. Jakość i skalowalność infrastruktury Amazon S3 jest taka sama jak ta używana przez firmę Amazon do udostępniania i zarządzania własną, globalną siecią stron internetowych.

    IBM InfoSphere Warehouse – środowisko do projektowania i wdrażania hurtowni danych. W ramach pakietu oprogramowania otrzymujemy narzędzia pozwalające na budowę procesów ETL, eksplorację danych (ang. Data Mining), a także tworzenie aplikacji analitycznych (OLAP) i raportów, opartych o dane strukturalne i niestrukturalne (pliki płaskie).

    Wyzwalacz (ang. trigger) – procedura wykonywana automatycznie jako reakcja na pewne zdarzenia w tabeli bazy danych. Wyzwalacze mogą ograniczać dostęp do pewnych danych, rejestrować zmiany danych lub nadzorować modyfikacje danych. ETL (ang. Extract, Transform and Load) – narzędzia wspomagające proces pozyskania danych dla baz danych, szczególnie dla hurtowni danych.

    Wyzwalacz (ang. trigger) jest to procedura wykonywana automatycznie jako reakcja na pewne zdarzenia w tabeli bazy danych. Wyzwalacze mogą ograniczać dostęp do pewnych danych, rejestrować zmiany danych lub nadzorować modyfikacje danych.

    Dodano: 18.07.2011. 16:26  


    Najnowsze