• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Warsztaty nt. pokładowej kompresji danych z ładunku użytecznego, Barcelona, Hiszpania

    25.05.2012. 16:37
    opublikowane przez: Redakcja Naukowy.pl

    W dniach 29 - 31 października 2012 r. w Barcelonie, Hiszpania, odbędą się warsztaty nt. pokładowej kompresji danych z ładunku użytecznego (Onboard Payload Data Compression Workshop).

    Główny problem dotyczący systemów teledetekcji polega na ograniczonej dostępności szerokiego pasma i zasobów niezbędnych do pobierania, przetwarzania i transmisji obrazów. Wraz z postępującym wzrostem rozdzielczości przestrzennej, widmowej i radiometrycznej czujników optycznych i radarowych, rośnie ilość gromadzonych danych. Z tego powodu potrzebne są silne algorytmy kompresji, aby dostosować się do dostępnych zasobów transmisyjnych.

    EUCLID, nowa "wizja kosmiczna" Europejskiej Agencji Kosmicznej, poświęcona poznawaniu charakteru ciemnej energii i ciemnej materii, staje w obliczu wyzwania polegającego na transmisji olbrzymich ilości danych za pośrednictwem ograniczonego łącza między satelitą a stacją naziemną. Celem misji jest zbadanie powiązania między odległością a przesunięciem ku czerwieni oraz ewolucji struktur kosmicznych. Wiąże się to ze znaczącymi wysiłkami technologicznymi i projektowymi, gdyż olbrzymie ilości danych będą generowane i wysyłane na Ziemię w krótkim czasie. Dzięki pokładowej kompresji danych możliwa będzie transmisja wszystkich danych, bez jakichkolwiek ograniczeń, optymalizując zwrot z inwestycji, jaki przyniesie misja nauce.

    Wydarzenie zgromadzi profesjonalistów z branży, aby podzielić się najnowszymi pomysłami i osiągnięciami oraz otworzyć drogę ku przyszłym innowacjom technologicznym.

    Za: CORDIS

    Czy wiesz ĹĽe...? (beta)
    Przetwarzanie danych (ang. data processing) – przekształcanie treści i postaci danych wejściowych (ang. input) metodą wykonywania systematycznych operacji w celu uzyskania wyników (ang. output) w postaci z góry określonej. Wyróżnia się przetwarzanie numeryczne (stosunkowo skomplikowane algorytmy i niewielkie ilości danych) oraz systemowe (stosunkowo proste algorytmy i duże ilości danych). Big data – termin odnoszący się do dużych zbiorów danych, których przetwarzanie wymaga zastosowania specjalistycznego oprogramowania. W praktyce pojęcie dużego zbioru danych oznacza rozmiar wyrażany przy pomocy co najmniej dziesiątek terabajtów, a często nawet petabajtów. Big data ma zastosowanie wszędzie tam, gdzie dużej ilości cyfrowych danych towarzyszy potrzeba zdobywania nowych informacji lub wiedzy. Szczególne znaczenie odgrywa wzrost dostępności Internetu oraz usług świadczonych drogą elektroniczną, które w naturalny sposób są przystosowane do wykorzystywania baz danych. PKZIP – program do kompresji danych napisany przez amerykańskiego programistę Phila Katza, wykorzystujący do kompresji danych algorytm ZIP. PKZIP jest akronimem od Phil Katz ZIP.

    Asynchroniczność (z ang. asynchronic) — sposób przesyłania danych pozwalający na nieregularne wysyłanie danych, przy czym początek i koniec transmisji oznaczane są wydzielonym symbolem. Transmisja asynchroniczna jest znacznie bardziej elastyczna od transmisji synchronicznej, choć w przypadku łączy danych może ograniczać nieco użyteczne pasmo (przepustowość) łącza. Temporalna baza danych - baza danych posiadająca informację o czasie wprowadzenia lub czasie ważności zawartych w niej danych. Temporalne bazy danych są często administrowane automatycznie, poprzez usuwanie nieaktualnych danych lub ich archiwizowanie.

    Data Vault – technika modelowania danych (w hurtowniach danych) zaprojektowana tak, aby zapewnić przechowywanie danych historycznych z wielorakich systemów operacyjnych (źródłowych). Data Vault oznacza również, obok aspektu modelowania, sposób patrzenia na dane historyczne, który zapewnia audytowalność, śledzenie danych, szybkość ładowania oraz odporność na zmiany biznesowe. Baza danych sieci elektroenergetycznej - baza danych która jest źródłem danych do prowadzenia wszelkiego rodzaju obliczeń sieciowych niezbędnych w praktyce eksploatacyjnej i w planowaniu rozwoju.

    Baza danych – termin ten oznacza, w rozumieniu Ustawy z dnia 27 lipca 2001 r. o ochronie baz danych, zbiór danych lub jakichkolwiek materiałów i elementów zgromadzonych według określonej systematyki lub metody, indywidualnie dostępnych w jakikolwiek sposób, w tym środkami elektronicznymi, wymagający istotnego, co do jakości lub ilości, nakładu inwestycyjnego w celu sporządzenia, weryfikacji lub prezentacji jego zawartości. LZF – algorytm i biblioteka do bezstratnej kompresji ukierunkowanej na szybkość kosztem stopnia kompresji. Wykorzystywany jest przede wszystkim w przypadkach ograniczonej mocy obliczeniowej czy kompresji w czasie rzeczywistym.

    Normalizacja bazy danych jest to proces mający na celu eliminację powtarzających się danych w relacyjnej bazie danych. Główna idea polega na trzymaniu danych w jednym miejscu, a w razie potrzeby linkowania do danych. Taki sposób tworzenia bazy danych zwiększa bezpieczeństwo danych i zmniejsza ryzyko powstania niespójności (w szczególności problemów anomalii).

    Data Communications Equipment (DCE – urządzenie komunikacyjne transmisji danych) – urządzenie komunikacyjne zakończenia obwodu danych umożliwiające urządzeniom końcowym (DTE) dostęp do łączy telekomunikacyjnych. Urządzenia DCE pośredniczą w wymianie danych między DTE, dostosowując standard transmisji wykorzystywany przez DTE do warunków panujących w łączu komunikacyjnym.

    Amazon Simple Storage Service (Amazon S3) - internetowy nośnik danych firmy Amazon, ma prosty w obsłudze interfejs WWW, który umożliwia dostęp do przechowywanych danych i zarządzanie nimi. Ilość przechowywanych danych jest praktycznie nielimitowana. Jakość i skalowalność infrastruktury Amazon S3 jest taka sama jak ta używana przez firmę Amazon do udostępniania i zarządzania własną, globalną siecią stron internetowych. Gęstość zapisu (ang. computer storage density) jest miarą ilości informacji (wyrażonej w liczbie bitów), którą można zapisać na określonej długości ścieżki, jednostce powierzchni lub objętości nośnika danych. Generalnie większa gęstość jest bardziej pożądana, gdyż umożliwia zapisanie większej ilości informacji w ramach tej samej dostępnej fizycznej przestrzeni. Wpływa ona bezpośrednio na pojemność nośnika danych, a pośrednio także na jego wydajność oraz cenę.

    Satelitarne sieci dostępowe: Pierwszą usługę przesyłania danych bezpośrednio do abonenta przy wykorzystaniu satelity wprowadzono na początku lat osiemdziesiątych pod nazwą Very Small Aperture Terminal. W latach dziewięćdziesiątych wprowadzono na rynek sieć Iridium, mającą służyć obok transmisji głosu, również do dwukierunkowej transmisji danych, oraz rozszerzono standard Digital Video Board o specyfikacje dotyczące sieci dostępowych. Postaramy się omówić w niniejszej pracy te trzy zupełnie różne platformy do świadczenia usług transmisji danych. Chcielibyśmy również pokazać, jakie są ich największe wady, zalety, obszary zastosowania, problemy w implementacji oraz ceny sprzętu i użytkowania. Porównaniem tych systemów zajmiemy się na różnych płaszczyznach. Obok VSAT, Iridium i Digital Video Broadcasting istnieje możliwość transmisji danych drogą satelitarną poprzez systemy Inmarsat i Globalstar, jednak nie będziemy się nimi zajmować ze względu na duże podobieństwo do systemu Iridium. Quick share (ang.) – w wolnym tłumaczeniu: "szybki dostęp". Funkcja niektórych telefonów komórkowych i aparatów cyfrowych. Jest to ustawienie czasu dostępu do pamięci, czyli maksymalne skrócenie czasu zapisu fotografii kosztem kompresji. Fotografia, zanim zostanie skompresowana i zapisana z kolejną odpowiednią dla nośnika nazwą, jest przechowywana w podręcznej pamięci, dzięki czemu możemy nią zarządzać jeszcze przed "trwałym" zapisem. We wszystkich urządzeniach wyposażonych w funkcję "quick share" współczynniki dostępu do zasobów i kompresji są automatycznie i niezmiennie ustawione przez producenta/oprogramowanie.

    RealMedia Variable Bit Rate (RMVB) - kontener multimedialny będący rozszerzoną wersją kontenera RealMedia (.rm) o możliwość przechowywania strumieni danych o zmiennej przepływności (VBR). Dzięki zmiennej przepływności można uzyskać lepszą skuteczność kompresji, w porównaniu ze starszą jego wersją, czy popularnym AVI, w efekcie mieszcząc większą ilość materiału w mniejszej objętości danych. Floating Car Data (FCD) to technologia służąca do wyznaczania średniej prędkości i czasu przejazdu na danym odcinku sieci drogowej. Technologia opiera się o analizę anonimowych danych GPS pochodzących z flot pojazdów lub nawigacji samochodowych. FCD opiera się na założeniu, że obserwując próbę pojazdów oraz zaawansowane algorytmy jesteśmy w stanie oszacować śrędnią prędkość i czas przejazdu całego strumienia ruchu. Dzięki swojej charakterystyce FCD pozwala na pozyskanie danych dla całej sieci drogowej, wszędzie tam gdzie poruszają się pojazdy. Jakość danych FCD zależy od ilości i jakości próby.

    Kodowanie gramatykowe (ang. grammar-based coding) – nazwa grupy algorytmów kodowania stosowanych w bezstratnej kompresji danych, w których dane wejściowe opisuje się gramatyką bezkontekstową, dąży się przy tym do minimalizacji ilości reguł. Następnie gramatyka jest kompresowana innymi metodami. Kodowanie sprawdza się m.in. w kompresji DNA oraz tekstów naturalnych, w których powtarzają się ciągi liter, ale często też całe słowa, frazy, czy zdania.

    Dodano: 25.05.2012. 16:37  


    Najnowsze