• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Praska konferencja stringologiczna 2010, Praga, Czechy

    04.08.2010. 16:12
    opublikowane przez: Redakcja Naukowy.pl

    W dniach 30 sierpnia-1 września 2010 r. w Pradze, Czechy, odbędzie się doroczna, praska konferencja stringologiczna 2010.

    Termin stringologia to popularne określenie na algorytmy ciągów i algorytmy tekstowe. Stringologia to również nauka o algorytmach ciągów i sekwencji. Zajmuje się rozwiązywaniem takich problemów jak dokładne i przybliżone dopasowywanie wzorca, wyszukiwanie powtórzeń w rozmaitych tekstach i tak dalej. Wiele obszarów wykorzystuje wyniki stringologii (np. wyszukiwanie informacji, komputerowe systemy wizyjne, biologia obliczeniowa czy przetwarzanie DNA).

    Na konferencję przewidziano następujące tematy:
    - algorytmy dopasowywania wzorców w ciągach, obrazach i drzewach;
    - struktury danych na potrzeby dopasowywania wzorców w ciągach, obrazach i drzewach;
    - kodowanie i kompresja danych;
    - bioinformatyka;
    - wyszukiwanie informacji;
    - algorytmy przetwarzania ciągów w bazach danych;
    - wyszukiwanie regularności;
    - przetwarzanie języka naturalnego.

    Wydarzenie jest organizowane co roku przez Praski Klub Stringologii, grupę badawczą z Instytutu Teoretycznych Nauk Informatycznych na Wydziale Informatyki Czeskiej Politechniki w Pradze.

    Za: CORDIS

    Czy wiesz ĹĽe...? (beta)
    Przetwarzanie danych (ang. data processing) – przekształcanie treści i postaci danych wejściowych (ang. input) metodą wykonywania systematycznych operacji w celu uzyskania wyników (ang. output) w postaci z góry określonej. Wyróżnia się przetwarzanie numeryczne (stosunkowo skomplikowane algorytmy i niewielkie ilości danych) oraz systemowe (stosunkowo proste algorytmy i duże ilości danych). Algorytmy aproksymacyjne – algorytmy służące do znajdowania przybliżonych rozwiązań problemów optymalizacyjnych. Stosuje się je zwykle do rozwiązywania problemów, dla których nie są znane szybkie algorytmy znajdujące rozwiązanie dokładne, na przykład dla problemów NP-zupełnych. Przeszukiwanie liniowe (lub wyszukiwanie sekwencyjne) to najprostszy algorytm wyszukiwania informacji w ciągu danych, np. zapisanych w tablicy lub na liście. Polega na porównywaniu żądanego klucza z kolejnymi kluczami z sekwencji danych – wyszukiwanie kończy się powodzeniem, gdy zostanie znaleziony klucz, albo niepowodzeniem, gdy zostaną przejrzane wszystkie klucze.

    Algorytmika to nauka o algorytmach. Jest działem informatyki, cybernetyki, a także, dla większości nauk matematyczno-przyrodniczych, ekonomii i techniki. Algorytmika zajmuje się badaniem algorytmów. Częścią algorytmiki jest algorytmizacja, czyli proces budowy konkretnego algorytmu. Wyszukiwanie informacji – wybór spośród zbioru wyszukiwawczego informacji, które posiadają relewantną cechę. Wyszukiwanie informacji w zbiorach wyszukiwawczych systemów informacyjno-wyszukiwawczych jest określane poprzez podobieństwo charakterystyki wyszukiwawczej (cech dokumentu) do instrukcji wyszukiwawczej (zadanego wyrażenia).

    AWK – interpretowany język programowania, którego główną funkcją jest wyszukiwanie i przetwarzanie wzorców w plikach lub strumieniach danych. Jest także nazwą programu początkowo dostępnego dla systemów operacyjnych będących pochodnymi UNIX-a, obecnie także na inne platformy. Bramki kwantowe – proste elementy wykonujące podstawowe obliczenia przeprowadzane przez algorytmy kwantowe. Bramki kwantowe stanowią podstawowe operacje realizowane przez komputery kwantowe i służą do przetwarzania informacji kwantowej. Bramki kwantowe na schematach obwodów kwantowych oznaczamy za pomocą ramek, a w obliczeniach stosujemy postać macierzy unitarnych.

    Move To Front (MTF) – prosta transformacja strumienia danych, używana jako część niektórych procesów kompresji, której zastosowanie może spowodować zmniejszenie entropii. Co za tym idzie, algorytmy kompresji zależne od tej własności (kodowanie Shannona, Shannona-Fano, Huffmana, arytmetyczne) dadzą lepsze wyniki; może także wyprodukować sekwencje lepiej kompresowane metodą RLE. Run-Length Encoding (RLE, kodowanie długości serii) – prosta metoda bezstratnej kompresji danych, której działanie polega na opisywaniu ciągów tych samych liter (bitów, bajtów, symboli, pikseli itp.) za pomocą licznika powtórzeń (długości ciągu), a dokładniej przez pary: licznik powtórzeń litery, litera.

    Struktura danych (ang. data structure) - sposób uporządkowania informacji w komputerze. Na strukturach danych operują algorytmy.

    Algorytmy wzajemnego wykluczania (w skrócie często nazywane mutex, z ang. mutual exclusion) są używane w przetwarzaniu współbieżnym w celu uniknięcia równoczesnego użycia wspólnego zasobu (np. zmiennej globalnej) przez różne wątki/procesy w częściach kodu zwanych sekcjami krytycznymi. Sekcja krytyczna jest fragmentem kodu, w którym wątki (lub procesy) odwołują się do wspólnego zasobu. Sama w sobie nie jest ani mechanizmem, ani algorytmem wzajemnego wykluczania. Program, proces lub wątek może posiadać sekcje krytyczne bez mechanizmów czy algorytmów implementujących wzajemne wykluczanie.

    Dodano: 04.08.2010. 16:12  


    Najnowsze