• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Drugie, międzynarodowe warsztaty nt. ładunków użytecznych do pokładowej kompresji danych, Tuluza, Francja

    04.10.2010. 16:49
    opublikowane przez: Redakcja Naukowy.pl

    W dniach 28-29 października 2010 r. w Tuluzie, Francja, odbędą się drugie, międzynarodowe warsztaty nt. ładunków użytecznych do pokładowej kompresji danych.

    Kolejna generacja przyrządów, które znajdą się na pokładzie statków kosmicznych, zbierać będzie ogromne ilości informacji w coraz szybszym tempie dzięki ostatnim udoskonaleniom technicznym. Potężne ilości danych generowane na pokładzie konkurują o ograniczone kanały transmisji danych na Ziemię. Wynikiem takiego scenariusza jest rosnące znaczenie, jakie zyskują ładunki użyteczne do pokładowej kompresji danych w projektowaniu statku kosmicznego.

    W systemach teledetekcji główny problem polega na ograniczonej dostępności szerokopasmowego łącza i zasobów niezbędnych do pozyskiwania, przetwarzania i transmisji obrazów związanych z danym obszarem ziemskim, jakie pozyskiwane są przez czujniki zamontowane na zdalnej platformie w powietrzu lub w kosmosie. Zważywszy na fakt, że rozdzielczość przestrzenna, widmowa i radiometryczna czujników optycznych i radarowych staje się coraz wyższa, ilość gromadzonych danych jest olbrzymia. Czujniki nowej generacji dążą do dalszego wzrostu rozdzielczości. Z powodu przepotężnych ilości danych potrzebne są silne algorytmy kompresji, aby dostosować je do dostępnych zasobów transmisyjnych. Ponadto wiele satelitów obserwujących Ziemię musi przesyłać dane na Ziemię w czasie rzeczywistym, co oznacza, że potrzebne są urządzenia do kompresji o bardzo dużej przepustowości.

    W misjach naukowych jednym z wyzwań jest możliwość transmisji do stacji naziemnych dużych ilości danych za pośrednictwem ograniczonego połączenia między satelitą a stacją naziemną. GAIA, nowa misja astrometryczna Europejskiej Agencji Kosmicznej, stawia czoło temu problemowi. Misja GAIA, której rozpoczęcie zaplanowano na 2011 r., będzie obserwować ponad jeden miliard gwiazd i innych obiektów z bezprecedensową dokładnością. Tego typu misja wiąże się z zakrojonymi na szeroką skalę pracami technologicznymi i projektowymi, gdyż jej zadaniem będzie wykrywanie, selekcja i pomiar w każdej sekundzie setek gwiazd oraz wysyłanie tych danych na Ziemię. Dzięki pokładowej kompresji będzie istniała możliwość transmisji wszystkich danych wygenerowanych na pokładzie bez jakichkolwiek ograniczeń, co pozwoli zmaksymalizować korzyści naukowe.

    Celem wydarzenia jest zgromadzenie wszystkich profesjonalistów z branży, aby podzielić się najnowszymi pomysłami i osiągnięciami oraz otworzyć drogę ku przyszłym wyzwaniom technologicznym.

    Za: CORDIS

    Czy wiesz ĹĽe...? (beta)
    Big data – termin odnoszący się do dużych zbiorów danych, których przetwarzanie wymaga zastosowania specjalistycznego oprogramowania. W praktyce pojęcie dużego zbioru danych oznacza rozmiar wyrażany przy pomocy co najmniej dziesiątek terabajtów, a często nawet petabajtów. Big data ma zastosowanie wszędzie tam, gdzie dużej ilości cyfrowych danych towarzyszy potrzeba zdobywania nowych informacji lub wiedzy. Szczególne znaczenie odgrywa wzrost dostępności Internetu oraz usług świadczonych drogą elektroniczną, które w naturalny sposób są przystosowane do wykorzystywania baz danych. Asynchroniczność (z ang. asynchronic) — sposób przesyłania danych pozwalający na nieregularne wysyłanie danych, przy czym początek i koniec transmisji oznaczane są wydzielonym symbolem. Transmisja asynchroniczna jest znacznie bardziej elastyczna od transmisji synchronicznej, choć w przypadku łączy danych może ograniczać nieco użyteczne pasmo (przepustowość) łącza. Data Communications Equipment (DCE – urządzenie komunikacyjne transmisji danych) – urządzenie komunikacyjne zakończenia obwodu danych umożliwiające urządzeniom końcowym (DTE) dostęp do łączy telekomunikacyjnych. Urządzenia DCE pośredniczą w wymianie danych między DTE, dostosowując standard transmisji wykorzystywany przez DTE do warunków panujących w łączu komunikacyjnym.

    Przetwarzanie danych (ang. data processing) – przekształcanie treści i postaci danych wejściowych (ang. input) metodą wykonywania systematycznych operacji w celu uzyskania wyników (ang. output) w postaci z góry określonej. Wyróżnia się przetwarzanie numeryczne (stosunkowo skomplikowane algorytmy i niewielkie ilości danych) oraz systemowe (stosunkowo proste algorytmy i duże ilości danych). PKZIP – program do kompresji danych napisany przez amerykańskiego programistę Phila Katza, wykorzystujący do kompresji danych algorytm ZIP. PKZIP jest akronimem od Phil Katz ZIP.

    ADPCM (z ang. Adaptive Differential Pulse Code Modulation) – adaptacyjna różnicowa modulacja kodowo-impulsowa. Jest to metoda kompresji cyfrowego zapisu dźwięku oraz technika kodowania analogowego sygnału mowy na postać cyfrową PCM w celu zmniejszenia ilości danych i transmisji przez kanał o przepływnościach od 16 do 32 kb/s. Satelitarne sieci dostępowe: Pierwszą usługę przesyłania danych bezpośrednio do abonenta przy wykorzystaniu satelity wprowadzono na początku lat osiemdziesiątych pod nazwą Very Small Aperture Terminal. W latach dziewięćdziesiątych wprowadzono na rynek sieć Iridium, mającą służyć obok transmisji głosu, również do dwukierunkowej transmisji danych, oraz rozszerzono standard Digital Video Board o specyfikacje dotyczące sieci dostępowych. Postaramy się omówić w niniejszej pracy te trzy zupełnie różne platformy do świadczenia usług transmisji danych. Chcielibyśmy również pokazać, jakie są ich największe wady, zalety, obszary zastosowania, problemy w implementacji oraz ceny sprzętu i użytkowania. Porównaniem tych systemów zajmiemy się na różnych płaszczyznach. Obok VSAT, Iridium i Digital Video Broadcasting istnieje możliwość transmisji danych drogą satelitarną poprzez systemy Inmarsat i Globalstar, jednak nie będziemy się nimi zajmować ze względu na duże podobieństwo do systemu Iridium.

    Sojuz TM-31 (Союз ТМ-31) – rosyjska załogowa misja kosmiczna, stanowiąca szóstą załogową wizytę na pokładzie Międzynarodowej Stacji Kosmicznej. Załoga kapsuły stanowiła pierwszą długoterminową załogę stacji ISS. Astronauci spędzili na pokładzie stacji ponad 3 miesiące i powrócili na Ziemię na pokładzie amerykańskiego wahadłowca w ramach misji STS-102. LZF – algorytm i biblioteka do bezstratnej kompresji ukierunkowanej na szybkość kosztem stopnia kompresji. Wykorzystywany jest przede wszystkim w przypadkach ograniczonej mocy obliczeniowej czy kompresji w czasie rzeczywistym.

    Floating Car Data (FCD) to technologia służąca do wyznaczania średniej prędkości i czasu przejazdu na danym odcinku sieci drogowej. Technologia opiera się o analizę anonimowych danych GPS pochodzących z flot pojazdów lub nawigacji samochodowych. FCD opiera się na założeniu, że obserwując próbę pojazdów oraz zaawansowane algorytmy jesteśmy w stanie oszacować śrędnią prędkość i czas przejazdu całego strumienia ruchu. Dzięki swojej charakterystyce FCD pozwala na pozyskanie danych dla całej sieci drogowej, wszędzie tam gdzie poruszają się pojazdy. Jakość danych FCD zależy od ilości i jakości próby.

    V.44 - to rekomendacja CCITT (obecnie ITU-T), która specyfikuje adaptatywny standard kompresji danych stosowany w modemach wdzwanianych (połączenia dodzwaniane, ang. dial-up) standardu V.92. Kompresja standardu V.44 oferuje trochę lepszą jakość kompresji dla pewnych rodzajów danych niż standard V.42bis, średnio zwiększając o ok. 5 % przepustowość łączy (w stosunku do V.42bis). Standard V.44 bazuje na technice kompresji LZJH (Lempel-Ziv-Jeff-Heath) opracowanej przez firmę Hughes Electronics dla technologii DirecPC i przeznaczonej pierwotnie dla internetowej łączności satelitarnej.

    cps (characters per second = liczba znaków na sekundę) – jednostka szybkości komputerowego urządzenia przesyłającego lub wyjściowego, liczona uzyskiwanymi znakami, a nie ilością przetwarzanych po drodze danych komputerowych (a więc bez uwzględniania kompresji, nadmiarowej ilości danych w celach kontrolnych itp.). Może to być średnia efektywna liczba znaków przesyłana przez modem lub liczba znaków drukowanych przez drukarkę pracującą w trybie znakowym (np. igłową, rozetkową). RealMedia Variable Bit Rate (RMVB) - kontener multimedialny będący rozszerzoną wersją kontenera RealMedia (.rm) o możliwość przechowywania strumieni danych o zmiennej przepływności (VBR). Dzięki zmiennej przepływności można uzyskać lepszą skuteczność kompresji, w porównaniu ze starszą jego wersją, czy popularnym AVI, w efekcie mieszcząc większą ilość materiału w mniejszej objętości danych.

    Normalizacja bazy danych jest to proces mający na celu eliminację powtarzających się danych w relacyjnej bazie danych. Główna idea polega na trzymaniu danych w jednym miejscu, a w razie potrzeby linkowania do danych. Taki sposób tworzenia bazy danych zwiększa bezpieczeństwo danych i zmniejsza ryzyko powstania niespójności (w szczególności problemów anomalii). Long Term Evolution (LTE) – standard bezprzewodowego przesyłu danych będący następcą systemów trzeciej generacji, rozwijany przez konsorcjum 3GPP. Głównymi celami nowego standardu jest zwiększenie możliwości telefonii komórkowej poprzez zwiększenie prędkości przesyłania danych, zmniejszenie opóźnień, zwiększenie efektywności spektralnej łączy radiowych, zmniejszenie kosztów transmisji danych, uproszczenie architektury.

    Gęstość zapisu (ang. computer storage density) jest miarą ilości informacji (wyrażonej w liczbie bitów), którą można zapisać na określonej długości ścieżki, jednostce powierzchni lub objętości nośnika danych. Generalnie większa gęstość jest bardziej pożądana, gdyż umożliwia zapisanie większej ilości informacji w ramach tej samej dostępnej fizycznej przestrzeni. Wpływa ona bezpośrednio na pojemność nośnika danych, a pośrednio także na jego wydajność oraz cenę. Eksploracja danych (spotyka się również określenie drążenie danych, pozyskiwanie wiedzy, wydobywanie danych, ekstrakcja danych) (ang. data mining) - jeden z etapów procesu odkrywania wiedzy z baz danych (ang. Knowledge Discovery in Databases, KDD). Idea eksploracji danych polega na wykorzystaniu szybkości komputera do znajdowania ukrytych dla człowieka (właśnie z uwagi na ograniczone możliwości czasowe) prawidłowości w danych zgromadzonych w hurtowniach danych.

    Dodano: 04.10.2010. 16:49  


    Najnowsze